Они украли наши наработки: американцы нашли объяснение феномену DeepSeek

отметили
10
человек
в архиве
Они украли наши наработки: американцы нашли объяснение феномену DeepSeek

Компания OpenAI, создавшая ChatGPT, заподозрила китайских конкурентов в попытках применения ее наработок для улучшения своих моделей ИИ. Американская фирма заявила о доказательствах того, что китайская DeepSeek использовала ее запатентованные модели для обучения своего чат-бота.

Речь идет о технике, которую разработчики применяют для повышения производительности небольших моделей за счет использования более крупных и обученных моделей. Это обычная практика в индустрии, однако опасения OpenAI вызвало то, что DeepSeek может делать так для создания собственной конкурирующей модели, а это уже является нарушением условий обслуживания OpenAI.При этом представлять доказательства OpenAI отказалась. В компании подчеркнули необходимость тесно сотрудничать с властями США для защиты технологий. ВМС США уже запретили служащим использовать DeepSeek якобы из «соображений безопасности и этики».

Китайская компания DeepSeek 20 января выпустила новую версию чат-бота R1, которая превосходит передовую версию ChatGPT американской OpenAI. При этом разработчики китайского чат-бота потратили гораздо меньше средств, чем американская фирма. Появление китайского ИИ вызвало потери у крупных компаний и миллиардеров из США. Одна только Nvidia потеряла 600 миллиардов долларов рыночной стоимости.

Добавил Игорь Иванов 39114 Игорь Иванов 39114 30 Января
Комментарии участников:
suare
+2
suare, 30 Января , url

представлять доказательства OpenAI отказалась

ВМС США уже запретили служащим использовать DeepSeek якобы из «соображений безопасности и этики

dbond
+1
dbond, 30 Января , url

ИМХО очень даже возможно, что использовали дисцилляцию большой модели. Этот способ очень широко используется для уменьшения объемов модели. Представь это как сделать энциклопелию с нуля и переписать на ее основе свое издание.
Китайцы запросто могли это сделать. Доказательства таких фокусы при желании можно найти -  модели могут галюцинировать (придумывать факты о которых они не знают) так, вот галюцинации в дистилированной модели повторяют глюки модели — источника данных. Если такие факты найдут, то все будет ясно. На поверхности как правило такие факты не лежат, но со временем выползут.
Ну и факт номер два — Дипсик на вопрос кто он такой, до недавнего времени представлялся чатом ГПТ или Яндексом. О чем это говорит? О том, что использовались данные яндекса и Чат ГПТ для тренировки Дикпика.

dbond
+1
dbond, 30 Января , url
ЖукВонючка
0
ЖукВонючка, 30 Января , url

Вообще, эта ситуация с тем, с какой легкостью какая-то китайская фуфелька нагнула «ии»-гигантов, показывает, насколько вся эта байда с «ии» раздута и переоценена.



Войдите или станьте участником, чтобы комментировать