Киберпреступники натравят искусственный интеллект на вас

отметили
8
человек
в архиве
Киберпреступники натравят искусственный интеллект на вас

Киберпреступники натравят искусственный интеллект на вас — представьте следующую ситуацию. Вы получаете звонок или голосовое сообщение от близкого человека, который сейчас путешествует за границей. Он утверждает, что потерял телефон и деньги и просит вас о помощи.

Ранее вы получали электронные письма с подобными просьбами, но, будучи технически подкованным человеком, решили, что вас пытаются “развести”. Но на этот раз никаких сомнений нет — вы собственными ушами слышите голос своего знакомого. Вы переводите деньги. И напрасно. Ведь этот голос сгенерирован при помощи искусственного интеллекта.

Из соцсетей преступники получили все необходимые сведения, включая образцы голоса потенциальной жертвы. Затем — сформировали соответствующие голосовые сэмплы при помощи интеллектуального алгоритма.

Пока это — вымышленный сценарий. Но последние успехи искусственного интеллекта делают такое развитие событий все более вероятным.

К примеру, самообучающейся системе Google DeepMind AlphaZero понадобилось всего восемь часов, чтобы научиться играть в древнюю китайскую игру Go лучше, чем любому из людей. Подобные самообучающиеся алгоритмы могут быть крайне полезны в науке и экономике.

Как показывает отчет “Злонамеренное использование искусственного интеллекта”, опубликованный недавно исследовательской компанией OpenAI, эта технология может стать палкой о двух концах.

С одной стороны, ИИ будет и дальше делать жизнь людей лучше. С другой, преступники, террористы и страны-изгои будут эксплуатировать этот мощный инструмент, чтобы вредить другим.

Злонамеренное использование искусственного интеллекта угрожает не только собственности и приватности людей. В более тревожных сценариях оно может угрожает их жизням. В мире быстро увеличивается количество дронов и других киберфизических систем, вроде беспилотных автомобилей или умных медицинских устройств.

Все они могут становиться заманчивыми целям для террористов и киберпреступников. Возможные сценарии включают множество пугающих вещей — от спровоцированных автокатастроф до дронов, узнающих жертву в лицо.

Еще один пугающий способ применения искусственного интеллекта — влияние на умы людей. Недавно спецпрокурор Соединенных Штатов Роберт Мюллер, возглавляющий расследование ФБР о вмешательстве России в президентские выборы США, заявил, что над процессом срыва голосования в 2016 году работала профессиональная команда из восьмидесяти человек.

А теперь представьте, что в руки такой команды попадает алгоритм, позволяющий создавать поддельные видео, неотличимые от реальных, или поддельные аудиодорожки с голосами любой публичной персоны.

Инструменты, которые позволяют менять лица людей на видео, уже существуют. Пользователь Reddit под логином Deepfakes первым начал использовать подобный алгоритм, чтобы “приклеивать” лица голливудских звезд к телам порноактрис.

Пока технология несовершенна, но рано или поздно поддельные видео станут соверешенно неотличимыми от реальных. видеороликов. Проще говоря, любой человек сможет создать реалистичный видеоролик с участием любого другого человека.

Эксперты OpenAI опасаются, что это приведет к окончательной потере какой бы то ни было истины. Представьте, что вам удалось запечатлеть чиновника, берущего крупную взятку. Такое видео больше не будет являться доказательством для обвинения в коррупции.

Чиновник просто скажет, что это видео поддельное. И в доказательство представит сотню не менее реалистичных видеороликов, где взятку берут самые разные персоны разной степени абсурдности, от Люка Скайуокера до Папы Римского.

Справедливо и обратное. Умные алгоритмы неизбежно будут использоваться для создания компрометирующих материалов на вполне честных людей. И хотя в подобном “мире постправды” видео перестанет являться объективным доказательством чего-либо, поддельные ролики все же смогут подмочить чью-то репутацию и посеять в массах сомнения.

Забудьте о блестящих журналистских расследованиях и разоблачениях, меняющих ход истории. Искусственный интеллект способен окончательно уничтожить песчинки правды, похоронив их в океане фейков. А значит, миром будут править наиболее отъявленные лжецы и подонки.

Добавил pilot233 pilot233 16 Марта 2018
проблема (4)
Комментарии участников:
Anton-f
+1
Anton-f, 16 Марта 2018 , url

Он утверждает, что потерял телефон и деньги и просит вас о помощи.

Кладешь трубку и звонишь ему сам. Затем спрашиваешь в каком году он завел кошку и как ее зовут.

manson
+1
manson, 16 Марта 2018 , url

Куда ему звонишь, если он потерял телефон, а вам звонит из будки? А про кошку выложено у него на страничке. Хотя в принципе я с вами согласен, но примеры вы привели неудачные

Anton-f
+1
Anton-f, 16 Марта 2018 , url

На телефон и звонишь. А он его не потерял.

А кошки нет.



Войдите или станьте участником, чтобы комментировать