Искусственный интеллект, несмотря на полезность и удобство, может лишить людей необходимости выбора, интеллектуального напряжения, ответственности, следования интуиции и в целом саморазвития

отметили
15
человек
в архиве
Искусственный интеллект, несмотря на полезность и удобство, может лишить людей необходимости выбора, интеллектуального напряжения, ответственности, следования интуиции и в целом саморазвития

Об этических вызовах новых технологий рассказала на международном круглом столе «Искусственный интеллект и христианская этика» в Петропавловске-Камчатском заместитель главного редактора МИА «Россия сегодня», эксперт в области новых медиа Наталья Лосева. В работе форума принимают участие иерархи и священнослужители РПЦ, занимающиеся проблемами биоэтики, а также светские эксперты.

Удобный мир
 
«Самое страшное — это даже не фейки, не осознанные манипуляции, не разные виды криминала. Главная угроза – в том, что удобный мир (создаваемый при помощи ИИ – ред.), который предлагает тебе удобные, отзывающиеся у тебя сейчас решения, лишает человека необходимости выбирать … Этот комфортный мир, в котором все решения подточены под твои нужды и потому тебе удобны, привычны, лишает человека самого главного инструмента саморазвития – ежесекундного выбора», — сказала Лосева.
 
Она привела в пример алгоритмы, изучившие пользователя и «понимающие, что сейчас ты хочешь послушать вот эту музыку, тебе полезно и выгодно купить вот этот корм для кошки, тебе лучше всего поехать отдыхать вот на это море».
 
В обычной, внецифровой жизни людям постоянно необходимо делать выбор, например, «выпить чай или кофе, надеть зеленые туфли или красные, прогуляться две остановки или проехаться на трамвае». «Искусственный интеллект в медиа, в работе, в быту, в покупках лишает человека необходимости этого интеллектуального напряжения для того, чтобы сделать выбор. В этом глобальная угроза», — добавила эксперт.
 
Навязанный маршрут
 
Сами по себе механизмы ИИ кажутся очень полезными для человечества, особенно в областях медицины и образования. Так, врачи говорят, что через 10-15 лет будут лечить не самого человека, а его цифровую модель, и алгоритм будет говорить, какую этому человеку нужно провести операцию. «Или мы приведем ребенка в школу, его обследуют – и скажут: этот ребенок должен стать физиком и заниматься вот этой узкой областью, он так устроен», — привела пример Лосева.
 
Все это, по ее словам, становится некоей «анестезией, которая нас усыпляет».
 
«Выглядит как очень привлекательный, эффективный и полезный каждому человеку и человечеству в целом мир. А на самом деле это кем-то или чем-то заданная предопределенность, навязанный маршрут, очень рациональный. И вы лишаетесь выбора, ответственности за свои поступки, права следовать интуиции или озарению», — подчеркнула специалист по новым медиа.
 
Информационные пузыри и пандемия Фейков
 
В числе рисков внедрения ИИ в медиа Лосева назвала формирование «информационных пузырей» — сообществ микроинформационных миров, где каждый человек имеет свою картину мира, подогнанную под его интересы. «Даже если в этой картине мира не будет фейков, наборы информации у разных людей могут отличаться диаметрально, и эта воронка будет засасывать людей», — предупреждает эксперт.
 
Кроме того, по ее словам, «сегодня уже существуют алгоритмы, которые позволяют создавать целые цепочки ссылок на сообщения о событии, которого не происходило». «Мы живем в пандемию фейков», — сказала Лосева. И с развитием искусственного интеллекта ситуация будет ухудшаться.
 
Хотя в то же время ИИ может становиться инструментом проверки правдивости информации. «К правде пробиться пользователю будет довольно сложно, хотя бы потому, что обычно правда на фоне фейка гораздо скучнее, проще, не так щекочет нервы. Поэтому сегодня журналисту, в первую очередь, нужно иметь инструмент, который позволит для себя, а потом уже для потребителя доказать: эта информация — правда или нет», — отметила Лосева.
 
Очень перспективным и тревожным она считает использование ИИ в виртуальной, «дополненной реальности» (VR со специальными 3D-очками). «Информационный пузырь в виртуальной реальности еще более эффективен. Для мозга безразлично, происходит ли что-то в актуальной реальности или в виртуальной, куда человек погружен в достаточно продолжительном времени», — пояснила специалист.
 
По ее словам, в 2022 году ожидается порядка 30 премьер разных видов очков дополненной реальности, которые ознаменуют замену смартфонов на постоянно носимые во время бодрствования очки. «То есть, все наметки информационных пузырей, искажений, фальсификаций будут гипертрофированы, усилены, когда мы человека помещаем в такое 360-потребление», — прогнозирует эксперт.
 
Главенство алгоритма
 
Лосева рассказала также о настораживающем случае, который был описан в докладе одной из крупнейших соцсетей. Алгоритмы стали предлагать пользователю определенные наборы друзей или брендов, которые он должен видеть, но уже через некоторое время аналитики компании заметили, что они не всегда понимают логику тех алгоритмов, которые ими же были созданы. Тогда появился еще один департамент, который уже пытался проанализировать, на основании чего алгоритмы выстраивали набор постов для того или иного пользователя.
 
«Получилось, что алгоритм, созданный специалистами, стал главенствовать над волей или идеями специалистов … Мне это показалось эпиграфом к тем рискам, которые нас ждут при развитии искусственного интеллекта в медийном поле. Роль условного главного редактора становится ничтожной по отношению к роли алгоритма, который будет лучше знать, как воздействовать на этого конкретного пользователя, что ему продать, в чем его убедить», — предостерегла эксперт.
 
Христианская этика для ИИ
 
По мнению всех представителей РПЦ, участвовавших в форуме, христиане должны делать все возможное для того, чтобы этические нормы развития и внедрения искусственного интеллекта базировались на библейских ценностях, которым не одна тысяча лет.
 
«Способность выбирать имеет прямое отношение к достоинству человека и христианской этике, их необходимо сохранять», — сказал один из организаторов форума, зампредседателя Синодального отдела по взаимоотношениям Церкви с обществом и СМИ Московского патриархата Вахтанг Кипшидзе.
 
А секретарь Синодальной комиссии по биоэтике, настоятель московского храма Сергия Радонежского в Крапивниках протоиерей Александр Абрамов отметил, что как раз через удобства, к которым можно отнести и смартфоны, действует сатана. Священнослужитель напомнил о пользе христианского принципа аскезы и заявил о важности именно христианской этики для ограничения рисков использования искусственного интеллекта во вред.
 
«Условная выхолощенная секулярная этика превращается в этику корпораций, этику международных чиновников и разного рода правительственных и околоправительственных организаций, которые в действительности никого не представляют, кроме самих себя. Религиозная этика связана с жизнью, это этика, написанная кровью, этика страдания и счастья», — пояснил РИА Новости Абрамов.
 
По его словам, Церковь – это не сторона переговоров, в которых «сейчас мы поговорим с людоедами, потом мы поговорим с Церковью, а потом с барабанщиками, а потом с людьми в народных костюмах». «Церковь предлагает всецелое интегральное видение ситуации, поэтому к ее опыту необходимо обращаться», — подчеркнул протоиерей.
 
Организаторами международного круглого стола «Искусственный интеллект и христианская этика», который проходит в Петропавловске-Камчатском 24-26 августа, выступили Синодальный отдел по взаимоотношениям Церкви с обществом и СМИ Московского патриархата, Фонд Конрада Аденауэра и Университет 2035 АНО «Национальная технологическая инициатива».
Добавил suare suare 27 Августа 2021
проблема (3)
Комментарии участников:
Jetwink
+2
Jetwink, 28 Августа 2021 , url

Логическое противоречие. Предлагая лучший вариант ИИ не лишает выбора, а упрощает его. Или я обязан следовать рекомендациям?

Эксперт подменяет понятия и манипулирует терминологией.

suare
+9
suare, 28 Августа 2021 , url

Это правильная логика.

Разве роль Родителя(Предка) выполнял в нашей жизни только искусственный интеллект, а не все те, кто был просто умнее и опытнее нас?

И что? Мы их всегда слушались и следовали их совету?

Или всегда, когда мы поступали по-своему, мы ошибались или терпели неудачу?

Мы просто шли своим путём и пытались найти свои решения.

«Опыт, сын ошибок трудных».

А нельзя ли сделать так, чтобы ошибок было поменьше?

Снизить риск ошибки и помогает ИМ(AI).

Сегодня утром после прогулки у меня в голове всплыл кусочек стихотворения, возможно, частично ошибочный. И по этому кусочку через поис в Яндексе и Google я восстановил автора, всё стихотворение и нашёл книгу на своей полке.

«Этот день заоблачен и тих. Не такой ли снился мне когда-то?» — это мой «всплывший» кусочек.

Желаете попробовать?

fakenews
+11
fakenews, 28 Августа 2021 , url

Сейчас целые направления появляются, визуализации и объяснения тех или иных решений. По сути ИИ эти производят просто огромное количество вычислений, над огромным количеством параметров, совокупность которых человек не осилит, но их можно ужать и визуализировать в достаточно понятном виде.

suare
+9
suare, 28 Августа 2021 , url

Дайджест? Реферат? Научпоп? Пересказ своими словами? Изложение?



Войдите или станьте участником, чтобы комментировать