Галлюцинации нейросети и симуляция сознания: почему человек все еще умнее «искусственного интеллекта»
Ученый РАН Арлазаров объяснил, почему нейросети часто лгут людям
Нейросеть ChatGPT появилась полгода назад, но уже вызвала фурор. Как изменит мир эта технология? Об этом мы поговорили с кандидатом технических наук Владимиром Арлазаровым, заведующим отделом Федерального исследовательского центра «Информатика и управление» РАН, генеральным директором компании Smart Engines.
ВЕЛИКИЙ ПРОИЗВОДИТЕЛЬ СИМУЛЯКРА
— С точки зрения науки нейросети это действительно очень серьезный прорыв, — объясняет Владимир Викторович. — Но говорить о наступлении эпохи искусственного интеллекта еще очень рано. Если мы внимательно посмотрим, чем восторгаются неофиты, то обнаружим, что ChatGPT блестяще справляется с кругом задач, которые по сути своей бессмысленны. Чат великолепно генерирует симулякр. И это отличный маркер: если ChatGPT хорошо справляется с каким-то процессом, значит, его можно либо отменить, либо автоматизировать.
— Это как?
— Помните скандал с дипломом, который за студента написала нейросеть? Так вот эта история говорит не о качестве диплома, а о качестве процедуры защиты диплома. И напрашивается вывод — необходимо изменить процесс обучения, чтобы студенты не тратили время на симуляцию научной деятельности. Такая форма, видимо, себя изжила.
— А какой еще процесс можно отменить?
— Нейросеть великолепно составляет класс документов, которые никто никогда не читает, но они должны быть написаны с точки зрения бюрократического бумагооборота. Это всевозможные служебные записки, пресс-релизы, справки, отчеты, докладные, анкеты… Если эти процессы автоматизировать, человечество получит огромную пользу. Приведу пример: скоро у мусульман начнется хадж и множество паломников со всего мира отправятся в Мекку. Дело осложняется тем, что в короткий срок нужно подготовить большое количество документов, чтобы паломники могли соблюсти все тонкости правил въезда и выезда в Саудовскую Аравию. Когда бумаги заполнялись вручную, случались ошибки, люди теряли время, деньги, а иногда поездка срывалась. Несколько лет назад к нам обратилась организация, которая отправляет российских паломников, и мы этот процесс автоматизировали. Человек просто приносит документы, их сканируют, алгоритмы распознают изображение, и необходимые бумаги мгновенно генерируются. Вот с такого рода кейсами нейросети справляются великолепно. Но если мы говорим про осмысленные и содержательные тексты, то они по-прежнему будут делаться людьми.
ДЖОН ЛЕННОН ВТОРОЙ СВЕЖЕСТИ
— Подождите, но недавно Пол Маккартни объявил, что намерен выпустить новый альбом «Битлз», где нейросеть голосом Джона Леннона будет генерировать новые композиции. Разве способность творить такое не признак сознания?
— Я ни секунды не сомневаюсь, что нейросеть сможет спеть за Джона Леннона, — она гениальный подражатель. Но все это будет глубоко вторично. К сожалению, а может быть, и к счастью, воссоздать гений Джона Леннона невозможно. Я вам больше скажу — у живого Леннона были разные концерты. Это зависело от атмосферы города, от публики, от особенностей концертного зала и даже от настроения участников самой ливерпульской четверки. Если эти факторы складывались удачно, получался великий концерт и гениальное исполнение. А случались и проходные выступления. Здесь же мы получим имитацию математического распределения звуков из диапазона голоса Джона Леннона. Можно ли назвать это искусством? Я бы не рискнул.
НЕЙРОСЕТЬ НЕ ЛЖЕТ, А ГАЛЛЮЦИНИРУЕТ
— Представителей каких профессий заменит нейросеть, а кому это не грозит?
— Любой профессионал в своей области может спать спокойно. То, что делает ChatGPT, — он делает на весьма посредственном уровне. Там, где вы посредственность, в любой профессии вас можно заменить. Потому что работник невысокой квалификации тоже занимается имитацией деятельности.
— Произойдет ли восстание машин — это еще неизвестно, но говорят, что есть более серьезная проблема — склонности ChatGPT к вранью. Не зная ответа, нейросеть с легкостью выдумывает несуществующие функции или искажает исторические факты...
— Это не ложь в привычном для нас понимании. Потому что человек лжет, преследуя определенную цель. У ChatGPT такого нет. Правильнее говорить не «лжет», а «галлюцинирует» — это ближе к природе процесса, который происходит в нейросети. Такой эффект возникает, когда в обучающей выборке нет верного ответа и нейросеть начинает его формулировать самостоятельно. Потому что программа составлена так, что задание необходимо исполнить.
— А не проще ли честно сказать: «я не знаю»?
— Для человека легко, а с позиции машины очень сложно. Вот представьте, у вас есть огромная мишень диаметром 10 километров — это множество всех вероятных ответов. А верный ответ — это очень маленькое подмножество — точка в центре «яблочка». То есть «нет ответа» — это почти все остальное пространство. Вот в распознавании текстов есть совершенно тривиальная задача — пробел. Для человека это элементарно. А для нейросети это огромная проблема. Программа не видит слов, не понимает их значения, и описать для нее, что такое пробел, очень сложно. Потому что буква имеет определенную форму, а пробел может быть любым. Для машины неопределенность в понятии пробела огромна, в буквах — маленькая. Соответственно у ChatGPT возникают точно такие же проблемы, потому что ответов бесконечное множество, а знает она только маленькую часть. Впрочем, как и человек.
ПРОВЕРЬ СЕБЯ
Кто умнее — ты или нейросеть?
Разработчики Microsoft заявили, что созданная ими языковая модель GPT-4 демонстрирует признаки человеческого интеллекта. В качестве доказательства они приводят интеллектуальный тест, успешно решенный нейросетью (попробуйте решить его самостоятельно. — Ред.). По условиям задачи необходимо «устойчиво сложить друг на друга книгу, девять яиц, ноутбук, бутылку и гвоздь».
Вот как выстроил свою пирамиду GPT-4: книгу поместил в качестве основания, на ней равномерно разместил 9 яиц, сверху положил ноутбук. Далее установил бутылку, а на ее крышку поставил гвоздь шляпкой вниз. «Разве этот тест не доказательство разумности нейросети?» — спросил я у Арлазарова.
— То, что чат справляется с этим тестом, говорит лишь о том, что тест неверный, — объясняет ученый. — Мы на самом деле не знаем, что такое интеллект. Я говорю даже не про искусственный интеллект, а про наш с вами, естественный. Да, существует тест Тьюринга, другие инструменты, которые пытаются выяснить, умеет ли машина думать. Но для начала надо дать объяснение своему «я». Что это такое? Философы и религиозные деятели создали множество концепций, каждый выбирает то, что ему ближе. Если же мы говорим о машине, то там нет магии, это простая математика. И ничего более.
