2-й закон термодинамики гласит, что в закрытой системе простота не может породить большую себя структурную сложность, каким бы числом она не пыталась это дело взять.
С ИИ-мифотворчеством у его творцов такая же заковыка, как с невидимой рукой рынка. Там тоже множество свободно грыжущихся примитивных частных собственников (экономических эгоистов) должно порождать большую структурную сложность в виде общего прогресса благ и возможностей (процветания). Но после 2008 мы убедились, что этот миф про вечно растущий капитализм позорно рухнул. Для рыночной самоорганизации нужны исправно работаютщие института, а они-то и разрушаются коррупцией структурно-примитивного эгоизма всех и вся.
На деле же невидимая рука точно знает, кому раздавать козыри. Если казино настроено так, что оно проиграть не может, то в конечном итоге разоряются все игроки, кроме собственников казино. Вот вам и большая синергетическая сложность.
То же самое с «еще более умным за счет самоприращения ума ИИ». Это корыстный миф, чтобы замутить воду, запудрить вам мозги и создать «суперум с блекдорами» в пользу собственников казино.
2-й закон термодинамики гласит, что в закрытой системе простота не может породить большую себя структурную сложность, каким бы числом она не пыталась это дело взять.
Не путайте ежа с ужом. Во-первых термодинамика это раздел физики в котором изучают процессы которые имеют такую характеристику как температура.
А вы пытаетесь применить закон термодинамики к информатике.
Во-вторых в данном конкретном случае система не замкнута.
Информация (сложность) и энтропия — классические смысловые оппозиции, вы просто не в курсе.
Что касается открытой системы, тут есть над чем подумать.
Представим себе андроида идеального ученика. Он на лету схватывает самые сложные футбольные финты и приемы, на овладение которыми обычному ученику нужны месяцы и годы тренировок. И так во всем. Конечно, в плане сохраниения и передачи знаний и навыков — это будет сверхчеловек. Но в творческом плане он будет, конечно, бесплоден....
Как и закон сохранения энергии, закон сохранения энтропии - один из самых универсальных законов мироздания.
Конечно. Она возможна только как совокупное упрощение (рост энтропии, деградация).
Теодицея, кстати — тоже обман, согласно этому закону. Червоточину (умгрунд) залечить нельзя. Ее можно только тупо отрицать.
Тут одно из двух: либо одноклеточные (и их среда развития) не столь просты, как хотят казаться. Либо между видами есть общий тонельный ход (бекдор) открытости.
Нейронная сеть (или ИИ) простыми словами — это универсальная функция (это как в школе «y = f(x)»), которую подгоняют под решение определенной задачи (распознать лицо или любой объект). Подгонять — значит обучить или подобрать коэффициенты так, чтобы на выходе было то, что от нее требуют. Можно сидеть и «говорить» нейронной сети: «такое-то лицо — это мужчина, такое-то женщина». При достаточном размере обучающих итераций можно решить, что сеть обучена и подать ей незнакомое лицо. Она скажет в конкретном случае, например, если это мужчина, то вероятность 83%, а если женщина, то 17%. Самое сложное в этом всем не нейронная сеть и обучение, а разработать алгоритм рассчета критерия оценки качества распознавания или проектирования нейронной сети. На примере. На вход подается изображение, состоящее из пикселей, имеющих различные цвета. Пусть картинка будет 100х100 пикселей, тогда их количество 10 тыс. Каждый пиксель — это комбинация нескольких цветов, пусть RGB (красный, зеленый, синий). Таким образом на вход нейронной сети подается 30 тысяч аргументов. Обычно цвета игнорируют, а используют значение яркости в градациях серого, чтобы уменьшить размерность задачи. У каждого входного аргумента есть коэффициент, который в итоге нужно подобрать так, чтобы в результате мы получили то, что мы хотим. Получается, задача с 30 тыс. неизвестными. Для сравнения, в параболе (из школьного курса) одна неизвестная. Сложности начинаются, когда нужно все эти аргументы с коэффициентами собрать. Вот тут начинаются сложности. Можно перемножить коэффициенты с аргументами, просуммировать и сравнить с константой и если больше, то на выходе будет 1, в противном случае 0. Можно этот выход подать на вход другой нейронной сети и т.п. Бесконечное множество вариаций для проектирования нейронной сети. Обычно ее макет обоснован математически или научно, это непросто сделать, сам так глубоко не изучал. Насколько я понял из статьи, Гугл хочет создать нейронную сеть для наиболее эффективного проектирования нейронной сети. Если так, то это сэкономит кучу времени разработчикам.