Галлюцинации нейросети и симуляция сознания: почему человек все еще умнее «искусственного интеллекта»

отметили
13
человека
в архиве

Ученый РАН Арлазаров объяснил, почему нейросети часто лгут людям

Нейросеть ChatGPT появилась полгода назад, но уже вызвала фурор. Как изменит мир эта технология? Об этом мы поговорили с кандидатом технических наук Владимиром Арлазаровым, заведующим отделом Федерального исследовательского центра «Информатика и управление» РАН, генеральным директором компании Smart Engines.
ВЕЛИКИЙ ПРОИЗВОДИТЕЛЬ СИМУЛЯКРА

— С точки зрения науки нейросети это действительно очень серьезный прорыв, — объясняет Владимир Викторович. — Но говорить о наступлении эпохи искусственного интеллекта еще очень рано. Если мы внимательно посмотрим, чем восторгаются неофиты, то обнаружим, что ChatGPT блестяще справляется с кругом задач, которые по сути своей бессмысленны. Чат великолепно генерирует симулякр. И это отличный маркер: если ChatGPT хорошо справляется с каким-то процессом, значит, его можно либо отменить, либо автоматизировать.

— Это как?

— Помните скандал с дипломом, который за студента написала нейросеть? Так вот эта история говорит не о качестве диплома, а о качестве процедуры защиты диплома. И напрашивается вывод — необходимо изменить процесс обучения, чтобы студенты не тратили время на симуляцию научной деятельности. Такая форма, видимо, себя изжила.

— А какой еще процесс можно отменить?

— Нейросеть великолепно составляет класс документов, которые никто никогда не читает, но они должны быть написаны с точки зрения бюрократического бумагооборота. Это всевозможные служебные записки, пресс-релизы, справки, отчеты, докладные, анкеты… Если эти процессы автоматизировать, человечество получит огромную пользу. Приведу пример: скоро у мусульман начнется хадж и множество паломников со всего мира отправятся в Мекку. Дело осложняется тем, что в короткий срок нужно подготовить большое количество документов, чтобы паломники могли соблюсти все тонкости правил въезда и выезда в Саудовскую Аравию. Когда бумаги заполнялись вручную, случались ошибки, люди теряли время, деньги, а иногда поездка срывалась. Несколько лет назад к нам обратилась организация, которая отправляет российских паломников, и мы этот процесс автоматизировали. Человек просто приносит документы, их сканируют, алгоритмы распознают изображение, и необходимые бумаги мгновенно генерируются. Вот с такого рода кейсами нейросети справляются великолепно. Но если мы говорим про осмысленные и содержательные тексты, то они по-прежнему будут делаться людьми.

ДЖОН ЛЕННОН ВТОРОЙ СВЕЖЕСТИ

— Подождите, но недавно Пол Маккартни объявил, что намерен выпустить новый альбом «Битлз», где нейросеть голосом Джона Леннона будет генерировать новые композиции. Разве способность творить такое не признак сознания?

— Я ни секунды не сомневаюсь, что нейросеть сможет спеть за Джона Леннона, — она гениальный подражатель. Но все это будет глубоко вторично. К сожалению, а может быть, и к счастью, воссоздать гений Джона Леннона невозможно. Я вам больше скажу — у живого Леннона были разные концерты. Это зависело от атмосферы города, от публики, от особенностей концертного зала и даже от настроения участников самой ливерпульской четверки. Если эти факторы складывались удачно, получался великий концерт и гениальное исполнение. А случались и проходные выступления. Здесь же мы получим имитацию математического распределения звуков из диапазона голоса Джона Леннона. Можно ли назвать это искусством? Я бы не рискнул.
НЕЙРОСЕТЬ НЕ ЛЖЕТ, А ГАЛЛЮЦИНИРУЕТ

— Представителей каких профессий заменит нейросеть, а кому это не грозит?

— Любой профессионал в своей области может спать спокойно. То, что делает ChatGPT, — он делает на весьма посредственном уровне. Там, где вы посредственность, в любой профессии вас можно заменить. Потому что работник невысокой квалификации тоже занимается имитацией деятельности.

— Произойдет ли восстание машин — это еще неизвестно, но говорят, что есть более серьезная проблема — склонности ChatGPT к вранью. Не зная ответа, нейросеть с легкостью выдумывает несуществующие функции или искажает исторические факты...

— Это не ложь в привычном для нас понимании. Потому что человек лжет, преследуя определенную цель. У ChatGPT такого нет. Правильнее говорить не «лжет», а «галлюцинирует» — это ближе к природе процесса, который происходит в нейросети. Такой эффект возникает, когда в обучающей выборке нет верного ответа и нейросеть начинает его формулировать самостоятельно. Потому что программа составлена так, что задание необходимо исполнить.

— А не проще ли честно сказать: «я не знаю»?

— Для человека легко, а с позиции машины очень сложно. Вот представьте, у вас есть огромная мишень диаметром 10 километров — это множество всех вероятных ответов. А верный ответ — это очень маленькое подмножество — точка в центре «яблочка». То есть «нет ответа» — это почти все остальное пространство. Вот в распознавании текстов есть совершенно тривиальная задача — пробел. Для человека это элементарно. А для нейросети это огромная проблема. Программа не видит слов, не понимает их значения, и описать для нее, что такое пробел, очень сложно. Потому что буква имеет определенную форму, а пробел может быть любым. Для машины неопределенность в понятии пробела огромна, в буквах — маленькая. Соответственно у ChatGPT возникают точно такие же проблемы, потому что ответов бесконечное множество, а знает она только маленькую часть. Впрочем, как и человек.
ПРОВЕРЬ СЕБЯ

Кто умнее — ты или нейросеть?

Разработчики Microsoft заявили, что созданная ими языковая модель GPT-4 демонстрирует признаки человеческого интеллекта. В качестве доказательства они приводят интеллектуальный тест, успешно решенный нейросетью (попробуйте решить его самостоятельно. — Ред.). По условиям задачи необходимо «устойчиво сложить друг на друга книгу, девять яиц, ноутбук, бутылку и гвоздь».

Вот как выстроил свою пирамиду GPT-4: книгу поместил в качестве основания, на ней равномерно разместил 9 яиц, сверху положил ноутбук. Далее установил бутылку, а на ее крышку поставил гвоздь шляпкой вниз. «Разве этот тест не доказательство разумности нейросети?» — спросил я у Арлазарова.

— То, что чат справляется с этим тестом, говорит лишь о том, что тест неверный, — объясняет ученый. — Мы на самом деле не знаем, что такое интеллект. Я говорю даже не про искусственный интеллект, а про наш с вами, естественный. Да, существует тест Тьюринга, другие инструменты, которые пытаются выяснить, умеет ли машина думать. Но для начала надо дать объяснение своему «я». Что это такое? Философы и религиозные деятели создали множество концепций, каждый выбирает то, что ему ближе. Если же мы говорим о машине, то там нет магии, это простая математика. И ничего более.

Добавил Kalman Kalman 20 Июня 2023
проблема (2)
Комментарии участников:
Z петриот
-2
Z петриот [вечный бан], 21 Июня 2023 , url
Комментарий удален


Войдите или станьте участником, чтобы комментировать