Роботы научились обманывать друг друга

отметили
52
человека
в архиве
Роботы научились обманывать друг друга
Ученые из Технологического института Джорджии разработали роботов, которые способны обманывать друг друга. Идею разработки они почерпнули в модели поведения обычных белок и птиц. Практическое приложение исследование найдет в будущих военных разработках. Работа публикуется в IEEE Intelligent Systems.

Команда ученых под руководством профессора Рональда Аркина начали с биологического исследования – они изучили, как ведут себя белки, собирающие желуди и прячущие их в своих тайниках. Когда другая белка может подсмотреть тайник, животное меняет свое поведение. Вместо того, чтобы обращаться к местам, где действительно могут храниться ее запасы, она посещает ложные тайники, мешая тем самым найти настоящие. Именно эту модель ученые перенесли на роботов. Если враг присутствует где-то рядом, робот может изменить свою стратегию патрулирования, чтобы обмануть другого робота или даже людей. Таким образом, можно выиграть время до прихода подкрепления.

Помимо этого, Аркин исследовали поведение птиц, которые «блефуют» перед лицом опасности – притворяются сильнее, чем они есть и даже нападают на противника. Не только эмпирические данные, но и математическая модель доказывает: такой обман является эффективной стратегией, польза от него перевешивает риск быть пойманным. И в военной операции, робот, который сам находится под угрозой, может не менее эффективно симулировать способность бороться с противником. Даже если он не в состоянии фактически защитить себя, его действия могут повлиять на интеллектуальную технику врага – заставить ее решить, что риск неоправданно высок. «Обман, если он используется в нужный момент, может минимизировать угрозу»,- говорит Аркин.

Профессор Аркин также отмечает, что расширение технологии за пределы военной области, где порой «все средства хороши», может повлечь за собой много этических вопросов. Он настоятельно рекомендует тщательно взвесить то, насколько морально приемлемы результаты исследований, которые научили роботов обманывать.
Добавил Vlad2000Plus Vlad2000Plus 10 Декабря 2012
проблема (1)
Комментарии участников:
Vlad2000Plus
+10
Vlad2000Plus, 10 Декабря 2012 , url
Нет бы чему хорошему у людей научиться.
suare
+12
suare, 10 Декабря 2012 , url
Человеческая история, если верить Библии, началась с попытки обмануть Бога. История человека начинается с попытки обмануть своих родителей, а затем и своих детей. Когда роботы научатся обманывать не только друг друга, но и своего создателя, начнётся история роботов. Ложь, обман — это как эстафетная палочка множества историй, сменяющих друг друга. Если сумеешь говорить с человеком так, чтобы он не понял, что ты робот, разве ты робот?
Fireleo
+3
Fireleo, 10 Декабря 2012 , url
Осталось добавить лень и агрессию.
suare
+5
suare, 10 Декабря 2012 , url
Тест Тьюринга
Тест Тьюринга — эмпирический тест, идея которого была предложена Аланом Тьюрингом в статье «Вычислительные машины и разум» (англ. Computing Machinery and Intelligence), опубликованной в 1950 году в философском журнале «Mind». Тьюринг задался целью определить, может ли машина мыслить.

Стандартная интерпретация этого теста звучит следующим образом: «Человек взаимодействует с одним компьютером и одним человеком. На основании ответов на вопросы он должен определить, с кем он разговаривает: с человеком или компьютерной программой. Задача компьютерной программы — ввести человека в заблуждение, заставив сделать неверный выбор».

Все участники теста не видят друг друга. Если судья не может сказать определенно, кто из собеседников является человеком, то считается, что машина прошла тест. Чтобы протестировать именно интеллект машины, а не её возможность распознавать устную речь, беседа ведется в режиме «только текст», например, с помощью клавиатуры и экрана (компьютера-посредника). Переписка должна производиться через контролируемые промежутки времени, чтобы судья не мог делать заключения, исходя из скорости ответов. Во времена Тьюринга компьютеры реагировали медленнее человека. Сейчас это правило необходимо, потому что они реагируют гораздо быстрее, чем человек.

Стандартная интерпретация теста Тьюринга
croatian
+5
croatian, 10 Декабря 2012 , url
Скрытая реклама одноклассников :)
Nertozander
+2
Nertozander, 10 Декабря 2012 , url
Вот когда они научаться брать взятки…
Vlad2000Plus
+2
Vlad2000Plus, 10 Декабря 2012 , url
В Сколково научат.
Vlad2000Plus
0
Vlad2000Plus, 10 Декабря 2012 , url
От отечественная разработка кстати уже умеет :). Новость первоапрельская, но в каждой шутке есть доля шутки…
Equilibrium
+4
Equilibrium, 10 Декабря 2012 , url
Скайнет, потерпи еще чуть-чуть, осталось совсем немного и тебя выпустят.
Роботов тебе Япония уже наготовила, электромобили есть, энергии в мире пока много.
С остальным справишься сам.
Navoo
+3
Navoo, 10 Декабря 2012 , url
ЁПТЬ!

Наши уже давно изобрели и используют! И даже на более серьезных уровнях.
У нас роботы не только обманывают своим поведением или угрожают не адекватно потенциалу, а…
… у нас САМ ФАКТ ОТСУТСТВИЯ ВООРУЖЕНИЯ уже скрывается от противника!

"- Ты видишь БПЛА.
— Не.
— И я нет. А он ЕСТЬ!"
Lim
+1
Lim, 10 Декабря 2012 , url
дайте им карты и пусть играют в покер.
LiSergey
+1
LiSergey, 11 Декабря 2012 , url
заголовок неверный — роботов научили. их просто так запрограммировали люди.

научились — это если бы они сами, без ведома программистов, стали эти алгоритмы применять.

журналистам CNEWS минус, а ньюсхантеру спасибо за тем не менее интересную новость!
Fireleo
0
Fireleo, 11 Декабря 2012 , url
Ну вы же в школе чему-то научились? Хотя соглашусь, они все так же выполняют заранее подготовленный алгоритм и ничего больше.
LiSergey
0
LiSergey, 11 Декабря 2012 , url
я? в школе? научился?? ну разве что прогуливать уроки только :)


Войдите или станьте участником, чтобы комментировать