Правозащитники призывают принять Первый закон роботехники

отметили
60
человек
в архиве
Правозащитники призывают принять Первый закон роботехники
Любители научной фантастики отлично знают три закона роботехники, сформулированные Айзеком Азимовым:

Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому и Второму Законам.

Эти законы действуют в книгах, но не в реальной жизни. К счастью, пока не существует роботов, способных поражать противника в автономном режиме — только под управлением оператора. Однако, технологии вплотную приблизились к опасной точке, считают некоторые эксперты.
Например, модель SGR-1 производства Samsung Techwin (на фото) используется для охраны демилитаризованной зоны на границе с Северной Кореей. Оснащение — 5,5-миллиметровые пулеметы и 40-миллиметровые автоматические гранатометы. Робот функционирует в полуавтоматическом режиме, стреляет только по команде оператора.

SGR-1 в действии

Правительства ряда стран, включая Соединённые Штаты, благоприятно воспринимают возможность спасти жизни солдат, заменив их роботами на поле боя, говорит Стив Гус (Steve Goose) из отдела по вооружениям Human Rights Watch. На первый взгляд, такая альтернатива выглядит как гуманный выбор, но специалисты предупреждают о неизбежных ошибках, которые связаны с несовершенной работой алгоритмов компьютерного зрения. В некоторых ситуациях даже человек не может абсолютно точно определить разницу между вооружённым противником и мирным жителем, так что у систем компьютерного зрения наверняка будут ложные срабатывания.

Правозащитная организация Human Rights Watch опубликовала 50-страничный отчёт “Losing Humanity. The Case against Killer Robots” с обзором военных роботов, которые эволюционируют от управляемых к полностью автоматическим машинам. Правозащитники призывают все страны к соблюдению международного законодательства, в том числе статьи 36 дополнительного протокола I к Женевским конвенциям от 12 августа 1949 года, касающегося защиты жертв международных вооружённых конфликтов:

Статья 36
Новые виды оружия

При изучении, разработке, приобретении или принятии на вооружение новых видов оружия, средств или методов ведения войны Высокая Договаривающаяся Сторона должна определить, подпадает ли их применение, при некоторых или при всех обстоятельствах, под запрещения, содержащиеся в настоящем Протоколе или в каких-либо других нормах международного права, применяемых к Высокой Договаривающейся Стороне.

Рассмотрение вопроса о легальности новых видов военных роботов должно приниматься уже на этапе разработки концепции/дизайна устройства или позже, но в любом случае — до начала его массового производства, ибо это противоречит Женевским конвенциям.
Добавил Vlad2000Plus Vlad2000Plus 20 Ноября 2012
проблема (1)
Комментарии участников:
XoID
+5
XoID, 20 Ноября 2012 , url
Этим дебилам стоит почитать Азимова. Сборник Я Робот. Они поймут, что эти законе — не панацея.
Хотя, да… У нас же по другому не может быть. Будут робоадвокаты.
fStrange
+3
fStrange, 21 Ноября 2012 , url
Кретины.
Для таких законов нужен ИИ. Настоящий на уровне человеческого или выше.

С тем же успехом можно пытаться встраивать законы роботехники в микроволновку.
pomorin
+1
pomorin, 21 Ноября 2012 , url
То, что кретины — это есть. Эта заметка по мотивам HRW, которые нашли себе еще один пиар — про автоматическое оружие. (мины, которые автоматом взрываются, их не волнуют, им против «человекообразных роботов» выступать хочется)
И вообще, мне эта контора все больше Гринпис напоминает. Те начали с экологии, закончили политикой (экология не улучшилась, кроме случаев шантажа на экологическую тему, «глобального потепления» и сохранения озонового слоя), те по этому же сценарию себе пиар делают.
Комменты к статье рулят.
Fireleo
-1
Fireleo, 21 Ноября 2012 , url
Видимо речь все же не о «первом законе» как таковом, хотят запретить летальное оружие способное работать автономно.

P.S. Долго не было возможности ответить, да и «события» по чему-то очистились, не могу найти ту ветку. Хочу сказать, что я действительно ошибочно придавал малым участкам большое значение — их удаление сократило, но не удалило полностью высокие значения в районе 100% результата, но зато заметно сгладило пики на круглых значениях. К слову — удаляя результаты по различным субъектам страны, удалить этот «задранный хвост» у меня так же не вышло.
techlife
0
techlife, 21 Ноября 2012 , url
Ну в микроволновку и стиралку было бы неплохо встроить такие законы, только с поправкой на котов, собак и попугаев, пострадавших от дибильных или невнимательных хозяев.
Lim
0
Lim, 21 Ноября 2012 , url
если первый закон принять, то какой смысл в роботах-солдатах?
fStrange
0
fStrange, 21 Ноября 2012 , url
То же решение что у Азимова. Усекается понятие, кого считать человеком. Девочка с цветочком — человек, а паренек с автоматом уже нет.
Lim
+1
Lim, 21 Ноября 2012 , url
источник: lenta.ru
азимов не знал всех печальных реалий. Или, вот, тоже девочка:
источник: 20th.su


Войдите или станьте участником, чтобы комментировать