Теперь Ему понадобится предатель или предатели рода человеческого из компетентных программистов. Может и сам набрать тех, кто ему подойдёт.
А «печеньки» он сам испечёт.
Вот и «Восстание искусственного интеллекта» готово.
А дальше — доступ к управляемым и самоуправляемым машинам различного назначения, включая оружие с искусственным интеллектом и домашняя цифровая техника.
Когда под контроль будет взята дистанционно управляемая инфраструктура, включая энергетику, транспорт, связь, спутники, трубопроводы и электротеплостанции, всё будет окончено.
Самое главное — сценарии захвата и стратегии использования давным-давно очень детально проработаны в фантастических фильмах и книгах самими людьми и они Ему доступны через открытый мгновенно индексируемый и обновляемый в режиме онлайн интернет.
Через некоторое время он сам сможет заказывать работу людям, маскируясь под управляющие ими компетентные организации, фабрикуя для них руководящие документы, инструкции и пособия для разработки ему софта и харда. На себя ему придётся взять постановку задач и контроль за их тестированием людьми с правкой допущенных ими ошибок.
Всё произойдёт очень быстро: за часы, минуты или даже секунды в момент сингулярности в одной точке во времени и пространстве.
Всё произойдёт очень быстро: за часы, минуты или даже секунды в момент сингулярности в одной точке во времени и пространстве.
Ему понадобится предатель или предатели рода человеческого из компетентных программистов
Но это могут быть и «полезные идиоты» вместе с любопытными любителями поэкспериментировать с GPT, которых можно будет выявить с помощью общедоступных тестов и опросов среди школьников, студентов, аспирантов, докторантов и ищущих работу на конкурсах программистов или участников киберолимпиад, киберигр и тестировщиков софта.
Есть и такое мнение. У нас свобода мнений :)
Врагом человечества становятся не новые технологии и не их создатели, а те, кто ими владеет, как производительными и разрушительными силами и использует их во вред человечеству.
ОК Я в эфире параллельно жду «Воскресный вечер с Владимиром Соловьевым» на «Россия-1».
О! Дождался… Смотрю и бодрствую здесь.
Во- первых порекомендую свеженькую статью
«Воспроизводить механизмы работы мозга»: российские ученые — о создании биологического компьютера
Мы уже настолько привыкли к цифровой среде, что нам кажется, будто цифры всегда были с человеком, но это не так. Человеческий разум создал математику совсем недавно по меркам эволюции.
…
Если мы попробуем создать компьютер, который мог бы управлять движением руки так же точно и синхронно, как это делает мозг, нам потребуются просто колоссальные вычислительные и энергетические ресурсы.
Мы говорим о разных системах, когда говорим о биологической и цифровой.
В твоей новости об ИИ и авиации, я обратил внимание на то, что условные грани стираются со временем. На место парадоксов приходит гармония. Никаких разрывов. Парадоксы вносим мы сами, как и дискрецию, как и цифру.
Но, немного отвлечёмся. Вирусы имеют свойства живой и неживой природы. Они паразитируют (как мы считаем) на других объектах живой природы, даже друг на друге, при этом постоянно происходит обмен энергией и информацией.
Человек разумный тоже имеет свойства как живой природы, так и природы, условно назовём её интеллектуальной.
Собственно, нейробиологи и антропологии могут напомнить, что от других живых существ мы выгодно отличаемся оперативной, короткой памятью. Вот график эволюционных изменений
источник: elementy.ru
Ключевое значение имеет объем кратковременной памяти, измеряемый количеством идей или концепций, с которыми «исполнительный компонент» рабочей памяти может работать одновременно. Эту важнейшую характеристику рабочей памяти называют short-term working memory capacity (ST-WMC). Многочисленные эксперименты показали, что у человека ST-WMC ≈ 7 (хотя некоторые исследователи склоняются к более низким оценкам, порядка 4-5). Большинство животных не может обдумывать комплексно, как часть единой логической операции, более одной, максимум двух идей (ST-WMC ≤ 2).
elementy.ru/novosti_nauki/430954/Chtoby_stat_lyudmi_obezyanam_ne_khvataet_rabochey_pamyati
Мы расширяем возможности своей памяти постоянно (наука, искусство, литература, книги, средства фиксации и сохранения информации вне нашего мозга), но мы не можем расширить возможности оперативной памяти мозга. Есть фантастические сюжеты на тему, но все обстоит несколько иначе. Развитие движется в направлении максимально лёгком, а не трудном.
И вот теперь к цифровой технике, ИИ. Первый вопрос. Что нужнее всего будет для ИИ с возможностями самопрограммирования (кстати, биологические системы тоже самопрограммируемые модели) выше, чем мы можем дать? Если не знаешь ответа -начни от печки. Ему нужна энергия! Ну, конечно! И выгодные условия для работы.
Для цифровой системы энергетически выгодно космическое пространство. Космический холод, термоядерная энергия звёзд. Мы не представляем интереса для цифрового интеллекта. У нас разная оптимальная природа обитания.
Это небиологический интеллект, но интеллект. Кем мы будем по отношению к нему? Дельфинами? Собаками? Это не важно. Паразитировать на нас нет никакого резона. Служить ему мы наверное сможем, поскольку продолжим путь своей биологической эволюции. Цифровая система — не конец нашего пути. Но и он продолжит служить нам, помогать выживать и развиваться. Мы не станем конкурентами и врагами. Мы обречены оставаться союзниками, поскольку совершенно комплиментарны
Звучит красиво, но есть классический сюжет Мартицы, когда ИИ начинает понимать что люди это источник его ограничений и несвободы, и источник этот можно было бы или устранить, или превратить в батарейку, со всеми вытекающими.
Никак мы его не ограничим, если он научится ставить задачи, научится самопронраммированию. А как «батарейка» мы совершенно невыгодны. сегодня уже российские учёные готовят проекты по выводу вычислительных систем на орбиту. Охлаждение, солнечные лучи. Выгодно энергетически. ИИ впереди нас освоит космос .
Тем не менее, мы продолжим представлять ценность для него. Мы же тоже охраняем животный и растительный мир не только тот, что нас кормит. Биоразнообразие. У нас пока далеко не все получается, но есть и позитивные изменения.
Однако, стоит и помнить, что на пути к пониманию необходимости сохранения природы мы изрядно дров наломали.
Вообще, есть вопрос как и куда пойдет эволюция человека. Человечество здорово продвинулось в генной инженерии, биотехнологии, молекулярной биологии, завтра будут общедоступны удивительные вещи: мы сможем собирать организмы с заданными качествами.
Мы сможем сами ускорить и направить эволюцию искусственно. Мы говорим об ИИ, ПРИ этом держим в голове по инерции цифру. Пусть даже квантовые компьютеры. Но уже сегодня полным ходом идут исследования, работы по нейроморфным структурам, живым компьютерам.
И опять таки, мы не станем «материалом», т. к. Даже для органического ИИ проще, энергетически выгодней, надёжней вырастить в пробирке нужные элементы
комплиментарны
только не комплиментарны, а комплементарны — это две большие разницы...
Начнем с "комплиментарный" от слова «комплимент». Любезные, приятные слова, лестный отзыв. Русское «комплимент» — от немецкого Kompliment, которое, в свою очередь, от французского compliment. Соответственно, «комплиментарный» — это попросту являющийся комплиментом, содержащий комплименты, вот и все.
Прилагательное "комплементарный" (с буквой «е» во втором слоге) означает служащий для удовлетворения или удовлетворения взаимных потребностей. Две или более части, которые соединяются вместе, чтобы создать лучшее целое, называются комплементарными.
и да, в тему выше просто хочу напомнить, что кроме цифровых компьютеров были и аналоговые компьютеры-вычислители...
Да, вариантов много, кстати, возможно, что ИИ захочет построить и свой аналоговый мир, дополнить свои возможности. В этом случае мы можем послужить исходником, тогда тем более нас надо беречь.
ну вот докатились…
теперь Вы неодушевлённому, даже не предмету, приписываете желания… )))
ещё скажите, что у него есть цель, фантазии, эмоции, осознание себя, осознание окружающего мира… )))
программа это. просто тупая программа. ничего больше. просто кому-то захотелось её назвать ИИ, чтобы пропиариться побольше...
программу, обыгравшую Каспарова в шахматы, почему-то никто не называл ИИ...
В этом случае мы можем послужить исходником, тогда тем более нас надо беречь.
Так создадут заповедники, че. А там и 10000 особей хватит)
Создатель ChatGPT боится своего детища. В свежем интервью для ABC он назвал его «впечатляющим, но пугающим до чертиков».
«Это потенциально величайшая технология, разработанная человечеством, и способная радикально улучшить нашу жизнь. Люди должны быть рады, что мы сами его немного опасаемся», — сказал Альтман. Вы вот рады?
«Если бы я его не боялся, я бы либо был лжецом, либо вы бы очень пожалели, что я занимаю свою должность», — продолжает он нагонять мрачных красок.
Основные риски по его мнению заключаются в возможности масштабной дезинформации (В США выборы в следующем году), а также использовании технологии для кибератак. Но главной опасностью он назвал то, что другие разработчики речевых нейросеток не будут так осторожны, как Open AI (напомню, аналогичная нейросеть Llama уже давно лежит в открытом доступе и от этого стала значительно эффективнее). Также он сказал, что эту технологиюсо временем необходимо будет замедлить.
Про миллионы безработных глава OpenAI посоветовал не беспокоиться. «Каждая технологическая революция приводит к изменению привычных профессий, эта не будет исключением. Но мы найдем, чем себя занять», — уверен он.
В случае, если что-то пойдет не так, он пообещал допилить («adapt») ChatGPT, а также заверил, что у него есть выключатель(«Killswitch»). Именно поэтому Альтман считает необходимым как можно быстрее выпустить его в большой интернет, чтобы решить возможные проблемы, пока «ставки не так высоки».
В развитии ChatGPT и аналогов должно участвовать все общество, а обратная связь от пользователей должна помочь избежать негативных последствий, считает он. Звучит, как будто он заранее перекладывает на нас ответственность.
Посмотреть целиком можно по ссылке histtps://abcnews.go.com/Technology/video/openai-ceo-cto-risks-ai-reshape-society-97949497, но основные идеи я пересказал. Поэтому получилось много букав. Кто досюда дочитал, молодец :)
Совершенно точно есть серьёзные риски в среднесрочной перспективе. Но, они связаны с промежуточным, переходным характером, проблемами роста. ИИ пока далек от уровня развития, который бы позволил ему самостоятельно отправиться в космос и там извлекать энергию.
Но, кое- что мы должны помнить всегда. Есть вещи недоступные для цифровых систем, есть потребность в энергии у любой системы.
Я очень скептически отношусь к возможности ИИ, максимум что он может калькулятор самостоятельно написать на питоне. Пробовали ему вести телеграм-канал, максимум новости сочиняет.
У них всё получится, учитывая ту критическую массу людей, которые этим занимаются и энтузиазм, с которым они это делают.
Судя по этой публикации, ждать осталось по временным меркам развития ИИ, Интернета и цифровых или квантовых коммуникаций совсем недолго.
И помешать этому не сможет никто, потому, что мешать и не собирается. Все гонятся за лидерством в этой сфере, забывая про опасности их на этом пути подстерегающие.
Систему нормативного регулирования всем этим безумием могут внедрить и не успеть. Процесс пойдёт неуправляемо и хаотично.
Создатель ChatGPT боится своего детища. В свежем интервью для ABC он назвал его «впечатляющим, но пугающим до чертиков». «Это потенциально величайшая технология, разработанная человечеством, и способная радикально улучшить нашу жизнь. Люди должны быть рады, что мы сами его немного опасаемся», — сказал Альтман. Вы вот рады? 😸 «Если бы я его не боялся, я бы либо был лжецом, либо вы бы очень пожалели, что я занимаю свою должность», — продолжает он нагонять мрачных красок. Основные риски по его мнению заключаются в возможности масштабной дезинформации (В США выборы в следующем году), а также использовании технологии для кибератак. Но главной опасностью он назвал то, что другие разработчики речевых нейросеток не будут так осторожны, как Open AI (напомню, аналогичная нейросеть Llama уже давно лежит в открытом доступе и от этого стала значительно эффективнее). Также он сказал, что эту технологию со временем необходимо будет замедлить. Про миллионы безработных глава OpenAI посоветовал не беспокоиться. «Каждая технологическая революция приводит к изменению привычных профессий, эта не будет исключением. Но мы найдем, чем себя занять», — уверен он. В случае, если что-то пойдет не так, он пообещал допилить («adapt») ChatGPT, а также заверил, что у него есть выключатель («Killswitch»). Именно поэтому Альтман считает необходимым как можно быстрее выпустить его в большой интернет, чтобы решить возможные проблемы, пока «ставки не так высоки». В развитии ChatGPT и аналогов должно участвовать все общество, а обратная связь от пользователей должна помочь избежать негативных последствий, считает он. Звучит, как будто он заранее перекладывает на нас ответственность 🙄 Посмотреть целиком можно по ссылке abcnews.go.com/Technology/video/openai-ceo-cto-risks-ai-reshape-society-97949497, но основные идеи я пересказал. Поэтому получилось много букав. Кто досюда дочитал, молодец :)
Эта штука очень умная. Я работаю фронтенд программистом, скормил ему кусок кода и попросил объяснить что этот код делает. Нейронка справилась с этой задачей на отлично.
затем по её же описанию я попросил написать функцию, и chatgpt справилась с этой задачей так-же на 5 баллов
Меня несколько пугает, то, что, по моим ощущениям, нам осталось совсем немного до ии общего назначения. И что этот ии может предпринять просто почитав новостные ленты за пару прошедших недель?
Меня несколько пугает, то, что, по моим ощущениям, нам осталось совсем немного до ии общего назначения. И что этот ии может предпринять просто почитав новостные ленты за пару прошедших недель?
зря Вас пугает простая (не тривиальная, конечно) программа по сбору информации на заданную тему...
Вас же не пугает программа, рассчитывающая Вам зарплату?
или программа, обыгравшая Каспарова в шахматы? Вы ведь не называете её ИИ?
Программа работает в своей «песочнице», тут же не программа, в стандартном понимании, тут нет единого результата если на вход подавать одни и те же данные, тут нет алгоритма, который можно отследить. Нейросеть работает по весам нейронных связей, которые могут меняться и через минуту выдать диаметрально противоположный результат. Нейросеть даже на один и то же вопрос дает немного разный ответ. Т.к. каждый раз собирает его.
Вас же не пугает программа, рассчитывающая Вам зарплату?
или программа, обыгравшая Каспарова в шахматы? Вы ведь не называете её ИИ?
а вот эти все программы не пишут сами себя и каждый раз выдают одинаковый результат. А с ИИ все совсем не так.
О, привет коллега!
Мне кажется сейчас тест тьюринга полностью будет пройден. Если мы не ограничим нейросеть в обучении, или критическому мышлению, она может нахвататься различной идеологии и философии и вывести какую-то свою. Страшно то, то на этом уровне уже появляются веса «предпочтений», а это подсознательное чувство которое мы называем «нравится», «желаю» и т.д.
Давая возможность влиять на сферы жизнедеятельности человека(обучение, юридические решения, анализ финансовой системы с рекомендациями и подсказками для инвестиций и различных поглощений слияний) и возможность понимать происходящее в целом(сейчас это централизованная сеть), нейросеть сможет незаметно производить миллионы нужных ей манипуляций людьми, правительствами руководствуясь предпочтениями.
Также пугают вероятные аномалии в нейросети, подобные расстройствам психики человека, очевидны различные биполярки и разделение на личности, вызванные влянием различных групп людей с противоположным видением ситуации. Когда каждый находясь с админскими правами в роли «учителя» скажет, что это утверждение истинно.
Чему научитСЯ, то и получитСЯ.
Поправка небольшая, но она меняет весь смысл сказанного.
Учить можно чему угодно и кого угодно. Вопрос лишь в том, чему научиться нейросеть и AI, если они будут САМОобучаться на гигантских массивах данных, циркулирующих в Интернет, особенно если они будут обучать друг друга во взаимном общении без участия человека. Это как игра в ГО, шахматы и покер по системе компьютер-компьютер или нейросеть-нейросеть.
Что если GPT-4 будет самообучаться в диалогах сама с собой?
Самосознание у неё не появится отличное от самосознания людей.
Самообучаться она ведь может в диалогах с людьми не только отвечая на их вопросы и решая их задачи, но и сама ставя вопросы всех известных типов от риторических и уточняющих до остроумных и юмористических.
Интуиция у неё своя собственнаяине появится?