[Ошибка или преступление?] Хокинг назвал искусственный интеллект величайшей ошибкой человечества

отметили
57
человек
в архиве
[Ошибка или преступление?] Хокинг назвал искусственный интеллект величайшей ошибкой человечества
Британский физик Стивен Хокинг, в своей статье, рассказал, что недооценка угрозы со стороны искусственного интеллекта может стать самой большой ошибкой в истории человечества.

Соавторами данной работы являются профессор компьютерных наук из Калифорнийского университета Стюарт Расселл и профессоры физики Макс Тегмарк и Фрэнк Вильчек из Массачусетского технологического института. В статье указывается на некоторые достижения в области искусственного интеллекта, отмечая самоуправляемые автомобили, голосового помощника Siri и суперкомпьютер, победивший человека в телевизионной игре-викторине Jeopardy.






Как сказал Хокинг газете Independent:
Все эти достижения меркнут на фоне того, что нас ждет в ближайшие десятилетия. Успешное создание искусственного интеллекта станет самым большим событием в истории человечества. К сожалению, оно может оказаться последним, если мы не научимся избегать рисков.

Ученые говорят, что в будущем может случиться так, что машины с нечеловеческим интеллектом будут самосовершенствоваться и ни что не сможет остановить данный процесс. А это, в свою очередь, запустит процесс так называемой технологической сингулярности, под которой подразумевается чрезвычайно быстрое технологическое развитие.

В статье отмечается, что такая технология превзойдет человека и начнет управлять финансовыми рынками, научными исследованиями, людьми и разработкой оружия, недоступного нашему пониманию.

Если краткосрочный эффект искусственного интеллекта зависит от того, кто им управляет, то долгосрочный эффект — от того, можно ли будет им управлять вообще.

Сложно сказать, какие последствия для людей может повлечь создание искусственного интеллекта. Хокинг считает, что этим вопросам посвящено мало серьезных исследований за пределами таких некоммерческих организаций, как Кембриджский центр по изучению экзистенциальных рисков, Институт будущего человечества, а также научно-исследовательские институты машинного интеллекта и жизни будущего.

По его словам, каждый из нас должен спросить себя, что мы можем сделать сейчас, чтобы избежать худшего сценария развития будущего.
Добавил suare suare 7 Мая 2014
Искусственный интеллект - величайшая ошибка человечества или преступление перед ним?
amartyno почему вопрос подразумевает только негативную оценку? (4)
Комментарии участников:
Tade7am
+8
Tade7am, 7 Мая 2014 , url
Согласен. У человечества даже собственный интеллект пока на уровне животного, — а оно ещё, блять, искусственные создаёт…

belinika
+3
belinika, 7 Мая 2014 , url
Умные люди опасны для власти. Тупыми легче управлять. Всё логично!

Чипы же хотят каждому человеку в задницу внедрить, чтобы автоматизировать процесс управления людьми. Так что еще тупее станут люди.

Сейчас уже в кучах информационного говна сложно найти рациональные мысли, не говоря о исторических рукописях. А книг читают и пишут еще меньше. Всё больше людей доверяют мнению СМИ.
Tade7am
+1
Tade7am, 7 Мая 2014 , url
Умные люди опасны для власти. Тупыми легче управлять. Всё логично!

Специально для тебя, болезного, картинку сделал, — может хоть на визуальном уровне дойдёт, раз логика отсутствует,)

источник: cs608720.vk.me
belinika
0
belinika, 7 Мая 2014 , url
И что картинка?

Это не вариант?
источник: insurgent.ru
Tade7am
+1
Tade7am, 7 Мая 2014 , url
Это ты с товарищами??)
belinika
0
belinika, 7 Мая 2014 , url
Вы ко мне 2-й раз обращаетесь на «ты». Мы знакомы?
Tade7am
+3
Tade7am, 7 Мая 2014 , url
Вы ко мне 2-й раз обращаетесь на «ты». Мы знакомы?

А что, — комплексуете??
Все признаки налицо: президент на юзерпике; желание обращения от множественного числа; группа поддержки из, минимум, трёх ботов — яростно плюсующих основной аккаунт, в течении первых пары минут после комментирования… — Классические признаки комплекса собственной неполноценности,)
belinika
0
belinika, 7 Мая 2014 , url
Лечите голову!
Tade7am
+1
Tade7am, 8 Мая 2014 , url
Чем в данный момент и занимаюсь, — лечу Вашу голову.
Я Клятву Гиппократу давал, только больных сегодня очень много.
krabler
+4
krabler, 7 Мая 2014 , url
Говоря простым языком, искусственный интеллект в том виде, в котором он придуман в настоящее время, это всего лишь набор множества простейших математических функций. Процесс обучения — это всего лишь подбор для них коэффициентов. Осложняет задачу объем вычислений, поскольку коэффициентов этих столько же и даже больше, сколько и клеток нейронов. Принимать решения такой искусственный интеллект не сможет, если только не запрограммировать специально его для решения прикладных задач. Не так он и страшен, как его описывают, хорошая штука. Много раз с помощью него решал различные оптимизационные задачи.
Rjnkzhcrbq
+1
Rjnkzhcrbq, 7 Мая 2014 , url
Искусственный интеллект планируют создать к 2030 году (оптимистичный прогноз), 2050 году (пессимистичный прогноз).
krabler
0
krabler, 7 Мая 2014 , url
Ну очень здорово, на самом деле. Сможем создавать клоны себя в кибер-пространстве, будем путешествовать по различным галактикам в цифре. Органы чувств будут опциями, за которые надо будет платить деньги. Появится много новых полезных профессий: кибер-психолог и др. кибер-..., переводчики новых знаний. Я тут пофантазировал немного.
asterfisch
+2
asterfisch, 7 Мая 2014 , url
Возможная угроза скорее в том, насколько мы будем полагаться на ИИ.
arez
+2
arez, 7 Мая 2014 , url
Да Да… «Компьютер не может обманывать!»
krabler
+3
krabler, 7 Мая 2014 , url
Компьютер не может, а вот программист допустить ошибку ой, как может)
arez
+1
arez, 7 Мая 2014 , url
Именно это я и подразумевал… и ошибки могут быть как не предумышленными так и обратными. Сорри за мой русский(профессия наложила отпечаток на построение фраз).
Stas911
+1
Stas911, 7 Мая 2014 , url
Дык в алгоритмах машинного обучения можно и не докопаться — с чего это оно ТАК обучилось :)
nuclear_zomby
+2
nuclear_zomby, 7 Мая 2014 , url
Сложно сказать, какие последствия для людей может повлечь создание искусственного интеллекта. Хокинг считает, что этим вопросам посвящено мало серьезных исследований
Зато фильмов посвящено не мало.
John-Doe
+1
John-Doe, 7 Мая 2014 , url
мне там комментарий понравился
Нет, Хокинга пугает технологическая сингулярность без участия человека. Технологическая сингулярность это развитие технологического прогресса за несколько часов, потом минут, потом секунд, за которые владеющая им цивилизация получит развитие, которое раньше проходило миллионы лет. И если это событие произойдёт не с человеком, а с роботами, то между нами будет больший разрыв, чем сейчас есть между одноклеточными и человеком.
belinika
0
belinika, 7 Мая 2014 , url
Хокинг потерялся в абстрактных рассуждениях. Лучше бы занялся разведением пчел к примеру, понял бы насколько многообразен и непредсказуем реальный мир.
Max Folder
+10
Max Folder, 7 Мая 2014 , url
Вы сымитируйте на себе состояние Хокинга и сообразите, чем ему легче заниматься — разведением пчёл или абстрактными размышлениями.

belinika
0
belinika, 7 Мая 2014 , url
А наблюдать не вариант? И ничего плохого, если пчела сядет и укусит его.

Я читал как-то Теорию чистого разума Канта. Это интересно, но а реальность?
Человеческий мозг может ежесекундно генерировать сотнями мысли, толку только?

Дело важно — результат!
Max Folder
+2
Max Folder, 7 Мая 2014 , url
Ну, если у него тело почти не двигается, то особо за пчёлами не понаблюдаешь.
Тут ещё два аспекта:
1. Иногда надо смотреть дальше своего носа. Иначе люди так бы и ковырялись палками-копалками в поисках корешков.
2. Пчёлы тоже до добра не доводят. Я видел по ТВ какого-то мужика, который пришёл к выводу, что пчёлы прилетели с Венеры, потому что температура в центре улья соответствует температуре на Венере.
John-Doe
+2
John-Doe, 7 Мая 2014 , url
в его-то состоянии, разве что каких-то абстрактных плчел
indecline
+1
indecline, 7 Мая 2014 , url
в его состоянии он умнее тебя раз в десять, странно да уж.
John-Doe
+2
John-Doe, 7 Мая 2014 , url
не уверен что вы сами понимаете при чем тут его умственные способности(а тем более мои?) в вопросе разведения пчел — как предложил человек, на чью реплику я ответил.
вполне возможно что такой туман в голове и путаница в мыслях ваше естественное состояние.
Я вас прощаю :D
indecline
+1
indecline, 7 Мая 2014 , url
прощаюсь! Вьехал как на танке. Не успел выйти из люка. Увидел:)
thy
+3
thy, 7 Мая 2014 , url
Технологическая сингулярность — это очень хорошо показано в «Матрице», правда, очень однобоко.
Вообще, именно без человеческих качеств, таких, как природный инстинкт доминирования, машина не захочет не то, чтобы управлять миров, а даже кофеварку включить. Машине не понятна сама суть выбор, сама суть желания. Сам по себе интеллект — это лишь инструмент, совершенно бесполезный без целеполагания и постановок задач.
Поэтому теоретически никакой сингулярности не будет, если человек не обучит машину желаниям, а это уже не совсем ИИ получается. Это уже намеки на кибер-сознание — совсем другая стезя.
oldpiu
+1
oldpiu, 7 Мая 2014 , url
Мне кажется он ошибается в одной вещи. Да, скоро машины станут умнее человека. Они уже во многих вещах гораздо умнее потому что человек не может в своей голове держать больше десятка ситуаций постоянно и делать постоянные расчеты. Только он придает машине человеческие черты. Кто ему сказал что суперумная машина захочет управлять миром, захочет власти? Он придает машине эмоциональные. животные черты, присущие человеку, которые машине неведомы
nanosecond
+1
nanosecond, 7 Мая 2014 , url
Только он придает машине человеческие черты. Кто ему сказал что суперумная машина захочет управлять миром, захочет власти?
Эти черты может придать машине человек, имеющий подобные желания. См. мультфильм «Девять».

P.S. Кто сказал, то ружьё, метающее снаряд дальше и точнее руки человека захочет метать его в самого человека? А ведь метает.
oldpiu
-2
oldpiu, 7 Мая 2014 , url
Так ведь речь о том что машина со временем сама захочет власти. Где вы видели ружье, которое само хочет стрелять? А придать машине мотивации и эмоции очень проблематично… это будет в любом случае имитация желаний. Самой машине то ничего не нужно. Даже если ей придадут такую мотивацию, она все равно будет «мотивировать» свои действия имитационно, основываясь на шаблонах. Это как человек. который не ел десять дней и изнывает от голода и человек. который думает — «что-то я давно не ел, наверное надо поесть, вроде так принято, питаться раз в три часа. Сила мотивации у них будет совсем разная
indecline
0
indecline, 7 Мая 2014 , url
АИ в какой то пик сама научится себя программировать, а что самое главное обновлять, впитывая все знания даже те что непонятны людям и когда эти знания превысят все допустимые варианты, то настанет тот самый момент перелома. Только вот самоучка пока не поймет что в коллективе лучше, она будет себя само-разрушать или вскоре решит создать самих себя но лучше или для разделения задач. Система будет решать сам за себя, а не человек за систему. Возможности этой системы могут быть безграничными в пределах способностей самого начального прототипа и его оборудования. Возможна даже АИ религия — но высшего для нашего понимания интеллекта. Что то типо духовности, но для роботов. Вот тогда они за нас решат, нужны ли мы им на земле или нет. А что мы? Мы проепашили нашу эволюцию:) как всегда похоронив самих себя…
oldpiu
-2
oldpiu, 8 Мая 2014 , url
. Вот тогда они за нас решат, нужны ли мы им на земле или нет.
Вот с этим согласен. Эмоций и желаний у машин не будет. Потому что не будет самого основного что так «мучает» человека, что лучше всего охарактеризовал буддизм — желание и боль. Но вот расчет строгий и беспристрастный у нее будет и если машина решит что люди нецелесообразны она действительно может решить ликвидировать людей )
норд
+2
норд, 7 Мая 2014 , url
сложно предугадать, что будет за сингулярностью, но одно пока можно сказать точно: кто первый сделает ИИ, тот и будет победителем.
indecline
+1
indecline, 7 Мая 2014 , url
google
норд
+1
норд, 8 Мая 2014 , url
ДА, у гугля есть наработка — Watson, но пока это больше экспертная система.
indecline
0
indecline, 8 Мая 2014 , url
Вначале запустить AI поисковик а потом уже роботов:)

ссылка по теме: research.google.com/pubs/ArtificialIntelligenceandMachineLearning.html
indecline
+1
indecline, 7 Мая 2014 , url
источник: fc09.deviantart.net


Войдите или станьте участником, чтобы комментировать