Илон Маск «распрощался» с OpenAI. Он «несогласен» с некоторыми проектами, которые команда планирует реализовать в будущем, например, обучить ИИ генерировать фейки и лгать

отметили
42
человека
в архиве

источник: itc.ua

Созданная в 2016 году некоммерческая организация OpenAI, известная своими прорывными решениями на основе технологий искусственного интеллекта, осталась без одного из своих основателей — небезызвестного миллиардера Илона Маска. Об этом сообщил сам предприниматель в своем Twitter.

По словам Маска, он перестал принимать участие в работе организации еще с тех пор, как в феврале прошлого года вышел из состава ее совета директоров. Причин, по которым бизнесмен «расстался» со своим «детищем», названо целых три.

Во-первых, указал инженер, произошел конфликт интересов: OpenAI и две другие его компании — Tesla и SpaceX — стали слишком часто «охотиться» за одними и теми же людьми. Во-вторых, на исследовательскую организацию у Маска банально перестало хватать времени.

«Я принял решение сосредоточиться на решении того огромного числа инженерных и производственных проблем, с которым столкнулись Tesla и SpaceX», — отметил миллиардер.

В-третьих, Маск был «несогласен» с некоторыми проектами, которые команда OpenAI планирует реализовать в будущем. О чем именно идет речь, он не уточнил. Однако известно, что ранее предприниматель неоднократно указывал на опасности подобных разработок.

Интересно, что буквально на днях OpenAI продемонстрировала свое новое творение, названное «самым опасным алгоритмом», — текстовый генератор GPT2, который пишет практически идеальные фейковые тексты на любые темы и в заданной стилистике. Как утверждается, исследователи обучили его на внушительном массиве англоязычных текстов размером в 40 ГБ (это около 35 тысяч цифровых копий «Моби Дика»).

Опираясь на вводные данные, новоиспеченный алгоритм пытается предположить, как дальше могут развиваться события. При этом помимо того, что он не выходит за рамки выбранной темы и не забывает, о чем шла речь в предыдущих параграфах, GPT2 еще и не допускает пунктуационных ошибок.

Так, когда журналисты The Guardian ввели в систему первое предложение романа-антиутопии Джорджа Оруэлла «1984» («Был яркий холодный апрельский день, часы били тринадцать»), она поняла, что это художественное произведение с элементами фантастики, и продолжила повествование следующим образом:

«Я ехал на своей машине на новую работу в Сиэтл. Заправил, вставил ключ и завел. Представил, каким будет этот день. Спустя сотню лет. В 2045 году я был бы школьным учителем в бедной провинции сельского Китая. Начинал с истории Китая и истории науки».

А когда искусственному интеллекту предоставили несколько первых параграфов статьи на тему Brexit, он выдал новостную заметку с поддельными цитатами, приписываемыми политику Джерему Корбину, упоминанием границы с Ирландией и фейковыми ответами от представителя Терезы Мэй, якобы подчеркнувшего решительность премьера «обособится от Евросоюза как можно раньше».

Репортеры Wired, в свою очередь, проверили GPT2 фразой «Хиллари Клинтон и Джордж Сорос…». Алгоритм мгновенно выстроил фейковую новость, заметив, что экс-госсекретарь и финансист с противоречивым имиджем «идеально дополняют друг друга», и попутно обвинив соперницу Дональда Трампа на президентских выборах 2016 года в заключении тайной сделки с российской уранодобывающей компанией.

Дабы продемонстрировать потенциальный вред от использования алгоритма, в OpenAI создали слегка модифицированную версию GPT2, которая по запросу генерирует бесконечный поток разнообразных положительных или негативных отзывов о чем угодно.

«Не менее творчески GPT2 может подойти к генерации спама и различных теорий заговора», — подчеркнули инженеры.

Впрочем, помимо выдающихся талантов в написании текстовых «дипфейков», у GPT2 есть и положительные стороны. Например, алгоритм отлично справляется с переводом текстов, составлением краткой выжимки и пониманием того, о чем идет речь.

Вместе с тем, несмотря на все позитивные аспекты разработки, в OpenAI решили воздержаться от публикации полного датасета для обучения аналогичной модели, побоявшись злоупотреблений и неправомерного использования технологии.

Источник: hightech.plus

Добавил suare suare 19 Февраля
Дополнения:

Добавил suare suare 19 Февраля
Комментарии участников:
Ни одного комментария пока не добавлено


Войдите или станьте участником, чтобы комментировать