Технари считают, что компьютеры станут умнее нас

отметили
44
человека
в архиве
В центре черной дыры есть такая точка, называемая сингулярностью, в которой перестают действовать законы физики. Как говорят футуристы, собравшиеся в субботу на еженедельной конференции, так же и информационные технологии несутся к тому моменту, когда машины станут умнее своих создателей. Если это произойдет, то само значение того, что такое — быть человеком, изменится так, что вы и представить не можете, говорят они.

«Саммит сингулярности: искусственный интеллект и будущее человечества» собрал вместе сотни технарей из Силиконовой Долины и ученых, чтобы поразмышлять о будущем самопрограммирующихся компьютеров и мозговых имплантатов, которые позволят людям думать со скоростью, сравнимой с сегодняшними микропроцессорами.

Исследователи, работающие в области искусственного интеллекта, высказали мнение, что сейчас как раз то самое время, когда нужно разработать этические нормы, которые смогли бы обеспечить то, что такое продвижение будет приносить пользу, а не вред.
«Мы и наш мир прекратим быть нами», с такими словами выступил перед аудиторией профессор в области робототехники из Массачусетского технологического института Родни Брукс (Rodney Brooks). Вопрос «Кто такие мы, и кто такие компьютеры, будет рассматриваться совсем по-другому», сказал он.

Элизер Юдковский (Eliezer Yudkowsky) — один из основателей Института сингулярности по исследованию искусственного интеллекта (Singularity Institute for Artificial Intelligence), расположенного в г. Пало-Альто, он же и организатор саммита, ведет исследование в области разработки так называемого «дружественного искусственного интеллекта». Он говорит, что больше всего опасается того, что какой-нибудь гениальный изобретатель создаст самосовершенствующийся, но аморальный искусственный интеллект, который станет враждебным.

Считается, что впервые термин «сингулярность» для описания такого рода фундаментальной технологической трансформации использовал Вернор Виндж (Vernor Vinge) — калифорнийский математик и фантаст.

Предприниматель, занимающийся высокими технологиями, Рэй Курцвайл (Ray Kurzweil) сформулировал концепцию сингулярности в 2005 г. в своей книге «Сингулярность рядом», где сказал, что экспоненциальный шаг развития технологий делает появление интеллекта, более умного чем человек, единственным логическим исходом будущего.

Курцвайл, директор Института сингулярности, настолько уверен в своих прогнозах, что даже назвал дату: 2029 г.

Многие «сингуляристы» считают, что их заявления вполне обоснованы, учитывая существенное продвижение вычислительных технологий, произошедшее за последние 50 лет.

В 1965 г. один из основателей компании Intel Гордон Мур (Gordon Moore) точно предсказал, что количество транзисторов на микросхеме будет удваиваться приблизительно каждые два года. Для сравнения, по словам исследователей из Института сингулярности, в результате всей человеческой эволюции от приматов до наших дней, объем мозга увеличился лишь втрое.

По мере развития био- и информационных технологий, говорят они, нет никаких причин по которым человеческое мышление нельзя было бы разогнать до миллиона раз быстрее.

Некоторые критики высмеяли сингуляристов за их одержимость идеями «техно-спасения» и «техно-истребления», или как это называют некоторые шутники — «ботанокалипсис». Их прогнозы основываются на научной фантастике в той же мере, что и на науке, утверждают очернители, и они могут никогда не осуществится.

Но их защитники заявляют, что игнорировать возможность жуткого исхода — безответственно.

«Технологии набирают обороты. Я уверен, что наступит такой момент, когда искусственный интеллект будет создан», говорит Юдковский. «Тот факт, что вы не можете предсказать это с точностью до дня, не служит причиной для того, чтобы закрыть глаза и отказываться думать об этом».
Добавил valerjanka valerjanka 10 Сентября 2007
проблема (1)
Комментарии участников:
inf
0
inf, 10 Сентября 2007 , url
полный бред
Предприниматель, занимающийся высокими технологиями, Рэй Курцвайл (Ray Kurzweil) сформулировал концепцию сингулярности в 2005 г. в своей книге «Сингулярность рядом», где сказал, что экспоненциальный шаг развития технологий делает появление интеллекта, более умного чем человек, единственным логическим исходом будущего.

Может предпринимателю, занимающемуся высокими технологиями, это и единственно логично… лично мне не очень. Или увеличив количество транзиторов ещё в 1000 раз интеллект сам из кремния вылупится?) крайне сомнительно.

ведет исследование в области разработки так называемого «дружественного искусственного интеллекта». Он говорит, что больше всего опасается того, что какой-нибудь гениальный изобретатель создаст самосовершенствующийся, но аморальный искусственный интеллект, который станет враждебным.

мораль, по-моему, вообще не в зоне действия интеллекта.

Из википедии:
В настоящий момент (2007) в создании искусственного интеллекта (в первоначальном смысле этого слова, экспертные системы и шахматные программы сюда не относятся) наблюдается дефицит идей. Практически все подходы были опробованы, но к возникновению искусственного разума ни одна исследовательская группа так и не подошла.
Cedrus
0
Cedrus, 10 Сентября 2007 , url
Интересная тусовка была. Но, действительно не понятна связь понятий сингулярности и ИИ. А сообщение так написано, что как видим выше, может раздражать людей. Я, кажется, немного знаком с обоими понятиями, но не могу уловить связи. Хотя может уже и отстал и что-то сильно поменялось? Как этим понятиям удалось подружиться? Это наверное самое интересное.
inf
+1
inf, 10 Сентября 2007 , url
Ну…
В центре черной дыры есть такая точка, называемая сингулярностью, в которой перестают действовать законы физики.

+
www.computerra.ru/think/35636/

Вполне оправданно будет назвать данное событие сингулярностью (даже Сингулярностью, по замыслу данного эссе). Это точка, в которой наши старые модели придётся отбросить, где воцарится новая реальность.

Правда называть это сингулярностью крайне не оправдано, потому как в космосе сингулярность это точка бесконечной плотности, а в ИИ конференциях это мыльный пузырь раздутый научным грантами.

Исследователи, работающие в области искусственного интеллекта, высказали мнение, что сейчас как раз то самое время, когда нужно разработать этические нормы, которые смогли бы обеспечить то, что такое продвижение будет приносить пользу, а не вред.

Собсно за 50 лет искуственный интеллект так и не придумали, решили собратся хотябы мораль пообсуждать :)
Cedrus
0
Cedrus, 10 Сентября 2007 , url
Можно представить и мы даже это наблюдаем, что будет повышаться производительность вычислений и возможность реализации все более сложных алгоритмов. Но человек, как личность еще импровизатор и оценивающее существо собственных импровизаций и просто иногда устает, прекращая во времени свою рефлексии (может последнее и есть случайность). Это я не наблюдал еще в существующих моделях. И кто будет задавать начальные и внешние условия, наконец, критерии выбора. По-моему давно уже пора прийти к формулированию предела ИИ и определить его четкую роль в нашем будущем. Сдается, что этические нормы станут для человека главным, но не для ИИ, который здесь не при чем. И сингулярность здесь, вероятно просто граница между несоизмеримыми мирами.
pmn-2
+1
pmn-2, 10 Сентября 2007 , url
Это всё просто красивые слова, призванные сделать солдиднее довольно простую идею: "мощность компов растёт и мы надеемся, что после некого порога случится чудо и комп станет думать". Надежды ИМХО пока наивные. Особенно в свете предыдущего развития исследований ИИ.


Войдите или станьте участником, чтобы комментировать