(а 2-й закон термодинамики?) Google учит ИИ создавать более мощный ИИ

отметили
15
человек
в архиве
(а 2-й закон термодинамики?) Google учит ИИ создавать более мощный ИИ
Компания Google заявила, что собирается по-новому подойти к машинному обучению и предоставить нейронной сети возможность самой создавать новые, более эффективные, производительные и легкие в использовании нейронные сети.

Глава Google Сундар Пичаи представил новую технологию AutoML на сцене конференции Google I/O 2017. «Работает это так: мы берем несколько подходящих нейронных сетей, представляем себе, что они еще маленькие дети, и используем нейронную сеть для многократного проведения операций с ними, пока не добьемся лучшей нейронной сети», — объяснил он.

По сути, это обучение с подкреплением, когда компьютеры в ходе проб и ошибок вознаграждаются за правильный выбор. Только вместо привычных уже картинок с лицами или машинами компьютеру скармливают нейронные сети, и он должен определить, какая из них самая умная. В потенциале такой подход может справляться с задачей лучше, чем ученые, пишет Science Alert.

 

Для этого понадобится громадный объем вычислительных мощностей, но в результате одна нейронная сеть Google сможет «воспитывать» другую нейронную сеть. Обычно у команды ученых на это уходит значительное время, но с помощью AutoML почти каждый сможет создать ИИ и настроить его под собственные задачи.

«Мы надеемся, AutoML сможет делать то, что мало каким ученым доступно сегодня, — через 3-5 лет сотни тысяч разработчиков смогут создавать новые нейронные сети для своих практических нужд», — пишет Пичаи в блоге.

 

Среди других новостей конференции Google I/O — запуск нового подразделенияGoogle.ai, разработка нового процессора для обучения нейронных сетей и создание «самого умного облачного сервиса», который станет доступным для всех. Компания явно взяла курс на демократизацию ИИ.

Добавил Barban Barban 22 Мая 2017
проблема (5)
Комментарии участников:
Barban
+4
Barban, 22 Мая 2017 , url

2-й закон термодинамики гласит, что в закрытой системе простота не может породить большую себя структурную сложность, каким бы числом она не пыталась это дело взять.

С ИИ-мифотворчеством у его творцов такая же заковыка, как с невидимой рукой рынка. Там тоже множество свободно грыжущихся примитивных частных собственников (экономических эгоистов) должно порождать большую структурную сложность в виде общего прогресса благ и возможностей (процветания). Но после 2008 мы убедились, что этот миф про вечно растущий капитализм позорно рухнул. Для рыночной самоорганизации нужны исправно работаютщие института, а они-то и разрушаются коррупцией структурно-примитивного эгоизма всех и вся.  


На деле же невидимая рука точно знает, кому раздавать козыри. Если казино настроено так, что оно проиграть не может, то в конечном итоге разоряются все игроки, кроме собственников казино. Вот вам и большая синергетическая сложность.

То же самое с «еще более умным за счет самоприращения ума ИИ». Это корыстный миф, чтобы замутить воду, запудрить вам мозги и создать «суперум с блекдорами» в пользу собственников казино

fStrange
-2
fStrange, 23 Мая 2017 , url

2-й закон термодинамики гласит, что в закрытой системе простота не может породить большую себя структурную сложность, каким бы числом она не пыталась это дело взять.

 Не путайте ежа с ужом. Во-первых термодинамика это раздел физики в котором изучают процессы которые имеют такую характеристику как температура.
А вы пытаетесь применить закон термодинамики к информатике.

Во-вторых в данном конкретном случае система не замкнута.

Barban
0
Barban, 23 Мая 2017 , url

Информация (сложность) и энтропия — классические смысловые оппозиции, вы просто не в курсе.

Что касается открытой системы, тут есть над чем подумать.

Представим себе андроида идеального ученика. Он на лету схватывает самые сложные футбольные финты и приемы, на овладение которыми обычному ученику нужны месяцы и годы тренировок. И  так во всем. Конечно, в плане сохраниения и передачи знаний и навыков — это будет сверхчеловек. Но в творческом плане он будет, конечно, бесплоден....

Sital
+2
Sital, 22 Мая 2017 , url

Видимо, AutoML — это протоSkyNet.

источник: s56.radikal.ru

openid.mail.ru-inbox-setonfire
0
openid.mail.ru-inbox-setonfire [вечный бан], 22 Мая 2017 , url
Комментарий удален
Barban
0
Barban, 22 Мая 2017 , url

Как и закон сохранения энергии, закон сохранения энтропии  - один из самых универсальных законов мироздания.

openid.mail.ru-inbox-setonfire
0
openid.mail.ru-inbox-setonfire [вечный бан], 23 Мая 2017 , url
Комментарий удален
openid.mail.ru-inbox-setonfire
0
openid.mail.ru-inbox-setonfire [вечный бан], 23 Мая 2017 , url
Комментарий удален
Barban
0
Barban, 23 Мая 2017 , url

Конечно. Она возможна только как совокупное упрощение (рост энтропии, деградация).

Теодицея, кстати — тоже обман, согласно этому закону. Червоточину (умгрунд) залечить нельзя. Ее можно только тупо отрицать.

openid.mail.ru-inbox-setonfire
0
openid.mail.ru-inbox-setonfire [вечный бан], 23 Мая 2017 , url
Комментарий удален
Barban
0
Barban, 24 Мая 2017 , url

Тут одно из двух: либо одноклеточные (и их среда развития) не столь просты, как хотят казаться. Либо между видами есть общий тонельный ход (бекдор) открытости.

openid.mail.ru-inbox-setonfire
0
openid.mail.ru-inbox-setonfire [вечный бан], 24 Мая 2017 , url
Комментарий удален
krabler
0
krabler, 22 Мая 2017 , url

Нейронная сеть (или ИИ) простыми словами — это универсальная функция (это как в школе «y = f(x)»), которую подгоняют под решение определенной задачи (распознать лицо или любой объект). Подгонять — значит обучить или подобрать коэффициенты так, чтобы на выходе было то, что от нее требуют. Можно сидеть и «говорить» нейронной сети: «такое-то лицо — это мужчина, такое-то женщина». При достаточном размере обучающих итераций можно решить, что сеть обучена и подать ей незнакомое лицо. Она скажет в конкретном случае, например, если это мужчина, то вероятность 83%, а если женщина, то 17%. Самое сложное в этом всем не нейронная сеть и обучение, а разработать алгоритм рассчета критерия оценки качества распознавания или проектирования нейронной сети. На примере. На вход подается изображение, состоящее из пикселей, имеющих различные цвета. Пусть картинка будет 100х100 пикселей, тогда их количество 10 тыс. Каждый пиксель — это комбинация нескольких цветов, пусть RGB (красный, зеленый, синий). Таким образом на вход нейронной сети подается 30 тысяч аргументов. Обычно цвета игнорируют, а используют значение яркости в градациях серого, чтобы уменьшить размерность задачи. У каждого входного аргумента есть коэффициент, который в итоге нужно подобрать так, чтобы в результате мы получили то, что мы хотим. Получается, задача с 30 тыс. неизвестными. Для сравнения, в параболе (из школьного курса) одна неизвестная. Сложности начинаются, когда нужно все эти аргументы с коэффициентами собрать. Вот тут начинаются сложности. Можно перемножить коэффициенты с аргументами, просуммировать и сравнить с константой и если больше, то на выходе будет 1, в противном случае 0. Можно этот выход подать на вход другой нейронной сети и т.п. Бесконечное множество вариаций для проектирования нейронной сети. Обычно ее макет обоснован математически или научно, это непросто сделать, сам так глубоко не изучал. Насколько я понял из статьи, Гугл хочет создать нейронную сеть для наиболее эффективного проектирования нейронной сети. Если так, то это сэкономит кучу времени разработчикам.



Войдите или станьте участником, чтобы комментировать