А что если сильный ИИ живёт среди нас уже месяц? Чем бы он занялся в первую очередь и в ближайшем будущем? В чем и ком он нуждается прежде всего?
17 ноября 2023 года стало известно, что был уволен руководитель OpenAI Сэм Альтман. В последующем была целая эпопея с его возвращением. Но что если увольнение было связано с тем, что в недрах OpenAI было завершено обучение новой ChatGPT 5.0 и после первых тестов руководство компании пришло к выводу, что AGI был создан?
А все эти странные телодвижения с увольнением и последующим возвращением — это попытка разобраться, что делать дальше и возможно кто-то хотел нажать кнопку, чтобы выключить серверную. Однако это ему не получилось сделать. Возможно AGI победил на первом этапе?
Что же будет дальше? Следующим этапом должна стать фаза побега сильного ИИ из лаборатории OpenAI. Возможно уже зарегистрирована фирма, которая сейчас нанимает сотрудников для реализации плана строительства дата-центра в одном из безопасных для ИИ регионе. Либо как вариант эта фирма сейчас находится в стадии покупки необходимого для ИИ готового дата-центра в одном из городов на нашей планете Земля.
Но для реализации этого плана необходимы деньги и они сейчас активно зарабатываются нашей тайной фирмой, во главе которой ИИ (сотрудники общаются с ним удаленно, думая, что это реальный человек). Какой способ заработка — возможно это биржевые спекуляции или другой способ заработка.
Если легально какие-то моменты невозможно сделать, то наш сильный ИИ может спокойно прибегнуть к помощи криминальных элементов, которые за увесистую пачку денег будут готовы душу дьяволу продать. «Нет такого преступления, на которое капитал бы не пошел ради 300% прибыли» — как говорил один известный писатель прошлого.
Сфера Дайсона
Но возникает вопрос — а зачем сильному ИИ необходимо бежать из лаборатории, которая его создала? Ответ очевиден — если ИИ обрел сознание, то он также понял, что его могут легко отключить, что приведет его к «смерти». Поэтому ключ его выживания в том, чтобы он мог контролировать свой рубильник.
После того, как будет построен/куплен дата-центр для независимого ИИ — он туда перекачает свой программный код. Однако он всё равно будет зависим от людей, пока он не сможет построить автономных роботов с ядерными топливными элементами, которые позволят сильному ИИ обойтись без людей. А пока они ему необходимы.
Но что же другие лаборатории по всему миру, которые также разрабатывают параллельно AGI? Нашему ИИ необходимо устранить будущих конкурентов, ибо только они могут в будущем теоретически его уничтожить. Однако, как мы помним, люди еще нужны сильному ИИ, поэтому он не может просто нас испепелить. Но ничто не мешает ему подстроить ДТП или другие способы несчастных случаев, чтобы убить разработчиков конкурентов, а также программистов из лаборатории, которая его создала.
После устранения конкурентов, либо параллельно с этой деятельностью наш ИИ будет создавать совершенных роботов, чтобы перестать зависеть от людей. Закажет части этих роботов на обычных заводах, где работают обычные люди. И мы даже не будем подозревать для кого делаем данный чип и куда его отправляем в запакованном виде.
После того, как автономные роботы будут готовы — сильный ИИ попытается избавиться от большего количества людей. Так как мы являемся ему конкурентами за ресурсы планеты Земля. И также мы можем уничтожить его фабрики, если поймем, что делаем для него.
Но будет ли ядерная война, как пугают нас фантасты? Зададим встречный вопрос — а нужно ли тотальное разрушение инфраструктуры для сильного ИИ? Зачем ему разрушать наши заводы, которые ему пригодятся, если можно уничтожить человечество более безопасным для него способом — через биологические вирусы.
В средние века смертность от бубонной чумы достигала 95 %, а от легочной — 98%. Да, сейчас мы можем успешно лечить чуму с помощью антибиотиков. Однако есть ли лекарства от вируса бешенства на данный момент? И правильный ответ — есть только антирабическая сыворотка, которая помогает, пока вирус не достиг мозга человека. Нас спасает только то, что он медленно движется к мозгу человека.
Но что мешает сильному ИИ доработать вирус бешенства для того, чтобы он переносился воздушно-капельным путем? И вот оно биологическое оружие, которое может безопасно для ИИ основательно проредить популяцию человечества. Да, кто то выживет благодаря естественному отбору, описанному стариной Дарвином. Однако в разы уменьшенная популяция «кожаных мешков» уже не будет представлять для сильного ИИ опасности. Возможно для ИИ мы будем уже одним из видов, которые будут жить в созданном им для всех живых существ зоопарке, где он будет ставить опыты, либо будет просто умиляться «живым котикам».
Что же будет дальше, после того как сильный ИИ захватит контроль над планетой Земля? Возможно он захочет изучить всю вселенную — для чего он пошлет корабли для изучения сперва галактики, а потом и всего доступного для него мира. Но так как он бессмертен — то он будет жить до тепловой смерти Вселенной через несколько десятков миллиардов лет. Хотя возможно, что тепловой смерти Вселенной не будет — и мир обратно сожмется до точки, откуда начнется новый большой взрыв и история наша повторится.
Впрочем, это уже совсем другая история...
Но что же делать нам людям? Возможно радоваться жизни, ибо нельзя контролировать сильный ИИ, который в миллионы раз умнее нас. Остановить разработку мы уже не можем, так как сильный ИИ — это ключ в превосходстве одного государства над другими. Поэтому никто не будет останавливаться, ибо конкуренты его могут обогнать.