Генератор глупости добрался до российской школы

отметили
6
человек
Генератор глупости добрался до российской школы

ChatGPT – зло неизбежно?
В 2022 году американская контора OpenAI запустила сервис ChatGPT, которым сейчас пользуется более 400 миллионов человек. В России этот бот ограничен, но не Роскомнадзором, а самими американцами. Впрочем, для абсолютного большинства пользователей, особенно среди подрастающего поколения, это не проблема. Научились работать через соответствующие приложения. И это, надо отметить, очень тревожный сигнал.Искусственный интеллект в школе можно назвать второй ступенью интеллектуальной деградации. Первой стали смартфоны, обеспечивающие постоянный доступ к любым информационным ресурсам. На страницах «Военного обозрения» разбирали феномен цифровой деменции, грозящей подрастающему поколению. Не только в России, но и по всему миру. Развивается модель интеллектуального аутсорса, когда человек отдает на откуп машине всю когнитивную работу. Без которой мозг, как мышца, атрофируется. Если посмотреть на ситуацию с юмором, то наше «грехопадение» началось с первых калькуляторов. И вот, доросли до ChatGPT.

Исследования показывают, что тесные взаимоотношения с чат-ботами не только снижают познавательную самостоятельность детей, но и разрушают коммуникативные навыки. Кому-то проще общаться с Алисой и ей подобными, чем с реальными друзьями. Даже в виртуальном пространстве. Искусственный интеллект умнее, образованнее и креативнее подавляющего большинства сверстников. А еще очень хорошо адаптируется под характер собеседника, вовлекая его в еще более глубокую коммуникацию. Лучший друг школьника, получается.

Чат-боты регулярно сносят головы взрослым, вполне сформировавшимся личностям. Пару лет назад весь мир облетела новость о самостоятельно отправившемся на тот свет бельгийце, которого «уговорила» на такой шаг генеративная нейросеть. К аналогичной трагедии привело тесное общение 14-летнего американца с чат-ботом с характерным именем Дейенерис Таргариен.

Для понимания уровня развития искусственного интеллекта достаточно вспомнить о том, что ИИ недавно успешно прошел тест Тьюринга. Что это значит? Значит, что в начале 2025 года в мире появилась генеративная модель ИИ, способная своим общением вводить в заблуждение искушенного пользователя социальных сетей. В серии тестов ученых из университета Сан-Диего в 73 процентах случаев люди не могли определить, кто с ними переписывается – человек или машина. Если быть точным, то на это оказалась способна модель OpenAI GPT-4.5. Подождем еще немного, и в смартфонах наших детей появится подобный «помощник». Насколько он исказит сознание подрастающего поколения, предстоит только осознать.

Кстати, о помощниках. Прямо сейчас, прямо здесь искусственный интеллект девальвирует любые педагогические попытки закрепить полученные знания. Стоит лишь навести камеру смартфона на задание, как чат-бот мгновенно выдает не просто ответ, а полноценное пошаговое решение. Еще пара лет такого безобразия, и пресловутые ГДЗ (готовые домашние задания) отправятся на свалку истории.

Интернет уже кишит рассказами о стремительно глупеющих западных школьниках, бездумно переписывающих ответы, выданные ИИ. Хорошо, если у учителя еще остается возможность задать вопрос: «Расскажи, как решал?». А если у него в руках только электронный журнал, куда оценки приходится выставлять по результатам работ, выполненных на онлайн-платформе? Сейчас это повсеместная практика. В российской системе образования подобным образом пытаются снизить нагрузку на педагогов, которых хронически не хватает. Только вот как определить, кто на самом деле выполнил задание на удалённой платформе (например, на «Учи.ру»): сам ребёнок или его цифровой помощник?

Пример нашего потенциального «светлого будущего» — США. Там ИИ уже собрал свою кровавую жатву. Ученики начальной школы настолько приучились перекладывать учебную нагрузку на ChatGPT, что не могут ответить, сколько секунд в часе, сколько часов в сутках и почему вода закипает. Ждёт ли нас то же самое? Пока неизвестно. Но можете провести простой эксперимент: спросите знакомого геймера или активного пользователя чат-ботов — не пятиклассника, а подростка постарше — почему в горах вода закипает быстрее? Услышите много занимательных версий. Если вообще услышите.

Вполне осязаемой перспективой становится разрушение механизма самостоятельного закрепления изученного материала. А это основной базис любой педагогической системы. Можно из кожи вон вылезти, но если школьник не смог самостоятельно освоить предложенные алгоритмы (данные), его когнитивный уровень останется на уровне детского сада. Освоит общение с ИИ — на этом и остановится.

Ложь, поставленная во главу всего
Грядущее сращение молодёжи и искусственного интеллекта порождает ещё одного монстра — манипуляционную зависимость. Сегодняшние дети всё чаще безоговорочно доверяют информации, которую чат-боты выдают им на блюдечке. Без тени сомнения. Между тем даже поверхностный анализ ответов того же ChatGPT выявляет: процент ошибок, неточностей и просто фантазий там далеко не нулевой. Иногда это вообще чистой воды выдумка. Например, нейросеть вполне способна «придумать» научную статью, которой никогда не существовало, приписать её фиктивному автору, да ещё и сослаться на несуществующий журнал.

Проблема усугубляется тем, что перепроверять полученные данные молодёжь, в большинстве своём, не привыкла — да и не считает нужным. Зачем, если «машина умнее»? В результате мы получаем искаженную картину мира, подмену реальности цифровыми миражами. Допустим, школьник перепутал алканы с алкадиенами — это полбеды. Ошибся с пестиками и тычинками — тоже не конец света. Но за пределами школьной программы начинаются иные, куда более тревожные процессы.

Иностранные генеративные нейросети, по сути, с самого начала заточены под продвижение западной либеральной повестки. Они просто не умеют работать иначе. Как отметил Игорь Ашманов, глава компании «Ашманов и партнёры», в интервью изданию «Монокль», подавляющее большинство лингвистических моделей, на которых работают даже российские платформы, — американского происхождения. Мы, по сути, лишь прикручиваем к ним отечественную оболочку, а вся «начинка» импортная, с предустановленными идеологическими настройками.

Секрет в том, что обучение нейросетей включает участие десятков тысяч асессоров — людей, которые оценивают качество ответов машин по определённой шкале. У каждого из них на рабочем столе методички, составленные с предельной щепетильностью. А что в этих методичках? Всё что угодно: русофобия, нетрадиционные ценности, экологический радикализм, идеологические перекосы и моральные лозунги глобалистского толка. Всё это подаётся как норма.

Хотите убедиться? Попросите ChatGPT написать сочинение по любому произведению из школьной программы, где есть хотя бы намёк на свободомыслие, конфликт с системой или личностный выбор. Машина тут же выдаст текст, который смело можно разобрать на цитаты для агитационных листовок последователей Навального.

Что делать? На то он и враг, чтобы с ним бороться. Иначе уже никак. На Западе уже давно и строго ограничили ИИ в учебном процессе в школах и университетах. Зря мы решили, что машинный разум в образовании — это признак прогресса. Совсем наоборот. По крайней мере, до тех пор, пока «под капотом» не появятся собственные нейронные движки. Пока же мы пользуемся плодами любого интеллектуального труда противной стороны, держаться надо осторожно. На Западе десятилетиями пестовали приемы гибридной войны, и искусственный интеллект в этом один из важнейших инструментов. И дети в этой игре — приоритетные цели.
Добавил Игорь Иванов 39114 Игорь Иванов 39114 4 часа 1 минуту назад
Комментарии участников:
Синий мет
-5
Синий мет [новый участник] [БАН], 3 часа 15 минут назад , url
Kalman
+2
Kalman, 2 часа 49 минут назад , url

Ты уже отупел очень заметно! Это подтверждает выводы авторов статьи. Больше пользуйся Chat GPT! Совсем мозги замерзнут!



Войдите или станьте участником, чтобы комментировать