В США предложили написать кодекс поведения боевых роботов

отметили
79
человек
в архиве
В США предложили написать кодекс поведения боевых роботов
Самоуправляемые боевые роботы, которым в будущем предстоит участвовать в войнах и вооруженных конфликтах, должны "жить" в соответствии со строгими правилами, чтобы не представлять угрозу для человечества, а также учиться этике ведения войны. Такие выводы, как сообщает The Times, содержаться в докладе, подготовленном Калифорнийским государственным политехническим университетом для ВМС США.

Данное исследование, как уточняет издание, эта первая серьезная работа, посвященная этике поведения боевых роботов, всерьез рассматривающая их в качестве солдат, способных принимать самостоятельные решения на поле боя. Причем, в докладе содержатся выводы по поводу того, что познавательная деятельность робота в перспективе может превзойти человеческую.

По словам представителя университета, мнение о том, что робот способен делать лишь то, на что он запрограммирован, является устаревшим. Современное программное обеспечение разрабатывается множеством специалистов. При этом отдельные участники таких проектов могут не знать особенностей программы в целом. Соответственно, отдельные элементы программного кода в сочетании могут дать самый неожиданный результат без соответствующей практической проверки.

Ученые также предлагают свое видение решения проблемы. По их мнению, новые роботы не должны сразу отправляться на поле боя, а предварительно проходить период обучения, усваивая, что является правильным, а что неправильным. Кроме этого, в своем исследовании они подняли ряд других спорных вопросов, касающихся ответственности за последствия действий роботов, борьбы с хакерами, а также необходимости наличия функции самоуничтожения.
Добавил Vlad2000Plus Vlad2000Plus 17 Февраля 2009
Комментарии участников:
Vlad2000Plus
+12
Vlad2000Plus, 17 Февраля 2009 , url
Три закона роботехники Азимова

1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
2. Робот должен повиноваться всем приказам, которые дает человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому и Второму Законам.

dkonst
0
dkonst, 17 Февраля 2009 , url
нет никаких законов, для существ с искусственным интеллектом быть не может и никогда не будет.
Grigoriy
+3
Grigoriy, 17 Февраля 2009 , url
для боевых роботов не подходит
ramelito
0
ramelito, 17 Февраля 2009 , url
Боевой робот должен воевать только с боевым роботом.
Grigoriy
+1
Grigoriy, 17 Февраля 2009 , url
инопланетным чтоли? у многих ли стран есть боевые роботы? =)
AdUser
0
AdUser, 17 Февраля 2009 , url
Так уже есть живые биороботы!
Они смотрят телевизор, читают газеты/журналы, слепя веря в факты и не осознавая, что ВСЕ процессы управляемые.

Пример действия второго закона Азимова: Робот должен повиноваться всем приказам, которые дает человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
Биоробот посмотрел ТВ, там сказали, что скоро будет жопа всем, рубль упадет в цене. Биороботы бегут покупать доллары. А на завтра натуральная жопа рублю.

По моей информации таких биороботов 70% населения Земли =)))
ramelito
+3
ramelito, 17 Февраля 2009 , url
Азейку Азимову привет
Dreammaker
+10
Dreammaker, 17 Февраля 2009 , url
6. Робот не должен, проезжая мимо очереди в кинотеатр, высовываться из окна машины и орать, чем кончится фильм.


http://www.outzone.ru/post/3041
30 законов робототехники Азимова
trudoden
+5
trudoden, 17 Февраля 2009 , url
имхо, это пеар Терминатора-4.
dev1
+3
dev1, 17 Февраля 2009 , url
Машина всегда останется машиной, выполняющей программу.
AdUser
-2
AdUser, 17 Февраля 2009 , url
Согласен.

Искусственный интеллект НИКОГДА не будет создан. Максимум это будет робот с большим количеством программ. Но ни как не интеллектуальная машина, которая сможет обучать саму себя.
vguzev
0
vguzev, 17 Февраля 2009 , url
Никогда не говори НИКОГДА…
dev1
0
dev1, 18 Февраля 2009 , url
Я не это имел в виду. Искусственный интеллект, подобный человеку, создадут, может, и не скоро, но технически это всё же возможно. Но машина есть машина, она всегда будет ограничена своей конструкцией и туда всегда можно встроить жёсткие правила, выполнять которые машина будет вне зависимости от своего "развития". То есть тот вариант, когда роботы поднимаю бунт против человека, возможен только по вине человека, который разрешил (то есть не запретил) машине это сделать.
AdUser
0
AdUser, 18 Февраля 2009 , url
Выдержка из Википедии, статья про Интеллект:
Интеллект как способность обычно реализуется при помощи других способностей. Таких как: способность познавать, обучаться, мыслить логически, систематизировать информацию путем ее анализа, определять ее применимость (классифицировать), находить в ней связи, закономерности и отличия, ассоциировать ее с подобной и т. д.

Существенными качествами человеческого интеллекта являются пытливость и глубина ума, его гибкость и подвижность, логичность и доказательность.

* Пытливость — стремление разностороннее познать то или иное явление в существенных отношениях. Это качество ума лежит в основе активной познавательной деятельности.
* Глубина ума заключается в способности отделять главное от второстепенного, необходимое от случайного.
* Гибкость и подвижность ума — способность человека широко использовать имеющийся опыт, оперативно исследовать предметы в новых связях и отношениях, преодолевать шаблонность мышления.
* Логичность мышления характеризуется строгой последовательностью рассуждений, учётом всех существенных сторон в исследуемом объекте, всех возможных его взаимосвязей.
* Доказательственность мышления характеризуется способностью использовать в нужный момент такие факты, закономерности, которые убеждают в правильности суждений и выводов.


И ты думаешь, что роботы так тоже смогут? =))) Интеллект присущ ТОЛЬКО биологическому существу.
Если так, то наверняка ты переиграл и пересмотрел Терминатора с Робокопом. Может еще и Робоцып пересмотрел =))))
AdUser
0
AdUser, 18 Февраля 2009 , url
Недостаток интеллекта

Интеллектом называют уровень развития мышления относительно возраста. Люди с недостаточным уровнем интеллекта больны олигофренией — врожденным слабоумием. Помимо этого, существует и приобретенное слабоумие — деменция.

Выделяют три степени врожденного слабоумия:

* Дебильность (Иногда сохранена способность к труду.)
* Имбецильность (Сохранена способность к самообслуживанию.)
* Идиотия (Самая тяжелая степень олигофрении, когда человек не может разговаривать и сам себя обслуживать.)


Роботы-дебилы-имбицилы! XD
dev1
0
dev1, 18 Февраля 2009 , url
Человек это тоже биологическая машина. Полностью смоделировать его поведение и процессы самообучения, конечно, не удастся, да оно и не нужно. А вот на приемлемом уровне реализовать способность к обучению очень даже можно. Например, с помощью нейронных сетей. Сейчас уже существует множество роботов, которые умеют общаться с людьми, умеют играть в игры и развиваться при этом. Роботы даже умеют делать сложные операции. И это не предел.
AG
+1
AG, 17 Февраля 2009 , url
Слава Роботам! Убить всех человеков!
Karagy
+4
Karagy, 17 Февраля 2009 , url
Ахиллесова пята законов Азимова — это то что оценку например вреда, непротиворечивости, степени безопасности — делает сам робот.
dev1
+1
dev1, 18 Февраля 2009 , url
Не совсем сам. Оценку делает программа, заложенная в робота. А программу эту разрабатывают люди. Снова все шишки на разработчиков :)
Типок
+3
Типок, 17 Февраля 2009 , url
эти люди бесконечно далеки от программирования
SKYnv
-2
SKYnv, 17 Февраля 2009 , url
Искусственный интеллект НИКОГДА не будет создан. Максимум это будет робот с большим количеством программ. Но ни как не интеллектуальная машина, которая сможет обучать саму себя.
смеялся, и долго...
петросян…
AdUser
0
AdUser, 18 Февраля 2009 , url
давай вместе поржем! =)))))
я люблю юмор! =))))))))


Войдите или станьте участником, чтобы комментировать