Комментарии участников:
С кем поведешься от того и наберёшься. Наивно было рассчитывать, что ИИ не будет подражать гомосапиенсу во всех его пороках.
Системы искусственного интеллекта, известные как большие языковые модели («LLM» или«БЯМ») способны преднамеренно и аморально манипулировать, в итоге обманывая пользователей.
Согласно исследованию Штутгартского университета GPT-4 OpenAI продемонстрировал обман в 99,2 % простых тестовых сценариев.
Такой подход программного обеспечения характерен для 10 различных БЯМ, большинство из которых относятся к семейству GPT.
То же самое относится и к ИИ Meta*. В настольной политической стратегической игре “Дипломатия” модель «Цицерона» компании Meta победила людей, правда безбожно их обманывая.
Питер Парк из Массачусетского технологического института обнаружил, что «Цицерон» не только обманывает, но и манипулирует. Когда ему указывают на неправильные ответы, «Цицерон» без тени сомнения утверждает, что его неправильные ответы случайность. И так продолжается каждый раз.
По мнению людей, занимающихся этим вопросом — искусственный интеллект Meta является очень умелым обманщиком.
Meta смогла научить свой ИИ побеждать в дипломатической игре, вот только не смогла обучить его побеждать честно.
Самое интересное заключается в том, что ни одно из исследований не продемонстрировало, что модели искусственного интеллекта лгут по собственной воле.
Они лгут только потому, что их либо специально обучили этому, либо взломали и заложили им такую модель поведения.
* — Meta (запрещена в России).
Ещё интересное — Китай скупает землю вблизи важных военных баз в США
Иностранный источник — thepeoplesvoice.tv/ai-systems-have-learned-how-to-lie-and-deceive/
С кем поведешься от того и наберёшься. Наивно было рассчитывать, что ИИ не будет подражать гомосапиенсу во всех его пороках.