[GAI+ChatGPT] Полгода «паузы» для «умных» роботов? Глупость! Проблема в нас, людях: задержка в разработке генеративного искусственного интеллекта (Generative Artificial Intelligence) — скверная идея

отметили
16
человек
в архиве
[GAI+ChatGPT] Полгода «паузы» для «умных» роботов? Глупость! Проблема в нас, людях: задержка в разработке генеративного искусственного интеллекта (Generative Artificial Intelligence)  — скверная идея

Призыв приостановить исследования искусственного интеллекта уже невыполним, пишет iDNES. Это важный фактор, определяющий равновесие сил, и демократический мир подарил бы соперникам полгода форы, чтобы потом с ужасом наблюдать, как те побеждают на поле стратегических технологий.

Стоит ли нам на самом деле бояться искусственного интеллекта? Прислушаться к призыву ученых и интеллектуалов и на полгода ради собственного спасения остановить его разработку? Нет, демократический мир тем самым только добровольно предоставил бы своим соперникам на этом стратегически важном поле огромное преимущество. Об этом пишут Давид Черны и Йиржи Видерманн из Института информатики Академии наук Чешской Республики.

Искусственный интеллект с нами уже несколько лет, и он сильно влияет на наши жизни. Это полезный инструмент, который управляет нашими телефонами, переводит тексты, решает, какая информация дойдет до нас первой, и оказывает огромную помощь научным исследованиям. Это инструмент, а инструменты можно использовать по-разному: топором можно нарубить дров или убить соседа.
 
Инструменты искусственного интеллекта тоже можно использовать либо разумно и правильно, либо неразумно и неправильно. Они могут помочь вам разоблачить виноватых в уголовном преступлении, а также послужить для шпионажа и ужесточения недемократического надзора. Искусственный интеллект способен за нас оценить сложные массивы данных и выявить в них необходимые элементы, но точно так же он может заключить нас в информационные пузыри и эхо-камеры, которые негативно влияют на ответственное формирование мнения. Совершенно понятно, что искусственный интеллект — прекрасный слуга, но он может стать и плохим хозяином.
 
В последнее время искусственный интеллект и успехи на поле машинного обучения широко обсуждаются общественностью. Он обладает буквально научно-фантастическими способностями: ведет с нам беседы на обычном языке, пишет книги, анализирует сложные тексты и на основании указаний генерирует замечательные картины. И это только начало. Ограниченному числу пользователей уже доступна продвинутая языковая модель GPT-4, которая преодолела некоторые недостатки предыдущей модели, включает новые функции и справляется даже с невероятно сложными задачами. Вскоре появятся новые и новые, которые будут все лучше и лучше, и у каждой — свои удивительные когнитивные способности и спектр проблем, с которыми они будут справляться.
 
Но это не основная причина, почему об искусственном интеллекте столько говорят. Недавно группа специалистов опубликовала открытое письмо, в котором они предупреждают о вероятных рисках и призывают остановить разработки на полгода. Это время, по их мнению, следует использовать для того, чтобы уяснить для себя, какие риски связаны с применением так называемых продвинутых систем, и разработать механизмы их минимизации. Кое-кто даже возвращается к идее искусственного интеллекта как экзистенциального риска (по мнению некоторых, даже максимального).
 
Если их опасения оправдаются, искусственный интеллект может стать нашим последним изобретением, после которого уже не останется ничего, что можно было бы назвать человечеством. Это не значит, что искусственный интеллект обязательно захочет нас истребить. Но не исключено, что при решении какой-то задачи люди встанут на его пути. Мы, люди, тоже не слишком беспокоимся о созданиях, которые нам, с нашей антропоцентрической точки зрения, кажутся менее совершенными. Когда строится новая плотина, над судьбой муравейника никто особо не задумывается.
 
Повторяем: это лишь инструмент
 
Но обоснованы ли эти опасения? Стоит ли нам действительно остановить развитие искусственного интеллекта, скажем, на предложенные полгода, и задуматься над этическими и социальными рисками и вызовами, которые с ним сопряжены?
 
Мы считаем, что в обоих случаях ответ — НЕТ. Современные системы искусственного интеллекта могут нас изумлять, и нам даже может казаться, что искусственный интеллект обладает некой волей, желаниями, замыслами, пониманием и даже эмоциями. Кстати, мы делаем то же с вещами, которые никак не связаны с искусственным интеллектом, например, с игрушками или созданиями, чьи умственные способности очень далеки от человеческих. Пример — собаки и кошки. Но даже самая совершенная система, как, скажем, столь часто упоминаемая в последнее время GPT-4, ничем подобным не обладает.
 
Это всего лишь инструмент. Сложный, продвинутый, мощный и, тем не менее, только инструмент. Он работает с языком, но не понимает его, не знает значения слов, не осознает, что делает. Искусственный интеллект способен анализировать статистические отношения между словами, фразами и их контекстом, и именно в этом ключ к пониманию его навыков. Если написать запрос, то он сможет его анализировать и на основании выученных образцов сформировать ответ. Искусственный интеллект немного похож на человека, который не понимает китайского, но держит в руках справочник, позволяющий ему сопоставлять с некоторыми иероглифами и их сочетаниями соответствующие слова и предложения на родном языке. У внешнего наблюдателя может сложиться впечатление, что этот человек понимает китайский, но это не так. Механическое применение правил не равно пониманию.
 
Тем не менее зачастую мы не можем избавиться от ощущения, что за навыками современного искусственного интеллекта что-то стоит. Хотя он же не нанял себе юридического представителя, чтобы защищали его права? И не утверждает же он о себе, что обладает сознанием, боится за свое существование, и не грозит же он навредить нам?
 
Все явления, которые наблюдались у некоторых систем, не предвещают беды, а скорее, являются безвредными и ожидаемыми. Искусственный интеллект не способен на интроспекцию, а информацию о себе он может получать только из внешних источников, из того, что о нем думаем мы — люди. Языковые модели не воспринимают мир «таким, каким он выглядит», в отличие от нас, людей, а видят его таким, как о нем написано, включая написанное об искусственном интеллекте.
 
Наша западная культура издавна относится к технологиям, особенно роботам и искусственному интеллекту, очень осторожно. Это отражается в бесчисленных трудах и дискуссиях о том, что искусственный интеллект обретет сознание и развяжет войну против человечества. Тогда нечего удивляться, когда языковые модели реагируют в соответствии с тем, как о них пишут. Они «зеркалят» нас: в них отражаются не они сами, а наше коллективное сознание. За этим опять-таки стоит не что иное, как статистический анализ языка. Никакого подлинного сознания, реальных умыслов. Ничего подобного. Кроме того, создатели этих моделей нас заверяют, что мы их полностью контролируем. Они не могут принимать спонтанных решений, которые идут вразрез с их алгоритмами, и не смогут нам навредить.
 
Искусственный интеллект, разумеется, обладает исключительным и невиданным потенциалом влиять на наши жизни и общество. Каким будет это влияние — положительным или отрицательным — решаем мы, люди. Алгоритмы сами по себе не испытывают потребности в дискриминации. Они делают это только тогда, когда мы нерадиво учим их на комплексах данных, в которых, например, недостаточно представлены меньшинства. Они не хотят шпионить за нами: тут все решают конкретные люди и конкретные правительства. Они не испытывают потребности нас дезинформировать или заключать в информационные пузыри. Все это лишь следствие желания удерживать нас в социальных сетях и нашего нежелания проверять информацию.
 
Подарок для Китая и России?
 
Требование остановить на полгода исследования искусственного интеллекта невыполнимо. Главная проблема не в нем, а в нас, людях. Мы должны поддерживать демократические процессы принятия решений, взять ответственность за свои жизни на себя, должны научиться понимать преимущества, недостатки и риски использования искусственного интеллекта. Определенная алгоритмическая грамотность — необходимое условие для ориентации в современном мире, и мы не придем к ней за полгода.
 
Это невыполнимо по той же причине, по какой невыполнимы публичные призывы многих интеллектуалов, требующих запретить разработку смертоносных автономных военных систем. Напряженность между государствами растет, и к власти рвутся новые сверхдержавы, тогда как одна бывшая, Россия, быстро разрушается. Искусственный интеллект, в том числе тот, который применяется в современных вооружениях, — важный фактор, определяющий равновесие сил, и все ключевые игроки это очень хорошо понимают. Россия, Китай и, например, Иран никогда не поддержат этот призыв, и мы поступили бы безрассудно, если бы подарили им полгода нашего бездействия, а потом с ужасом наблюдали бы, как они побеждают нас на поле чрезвычайно важных со стратегической точки зрения технологий.
 
Добавил suare suare 12 Мая 2023
Дополнения:

Добавил suare suare 12 Мая 2023
Комментарии участников:
Ни одного комментария пока не добавлено


Войдите или станьте участником, чтобы комментировать