[Гонка с раздельным стартом] ИИ Grok-3 от xAI занимает первое место в рейтинге Chatbot Arena и в настоящее время превосходит всех конкурентов, опережая Google, OpenAI и DeepSeek
Илону Маску удалось за очень короткое время профинансировать свой стартап в сфере искусственного интеллекта xAI в размере 12 миллиардов долларов и превратить его в одного из ведущих игроков в сфере искусственного интеллекта. Презентация новейшей модели искусственного интеллекта Grok-3, обученной с помощью суперкомпьютера Colossus, показывает, что команда Маска способна превзойти даже таких крупных игроков, как OpenAI и Google.
Илон Маск с сотрудниками xAI на презентации Grok-3. Фото:xAI
Модель искусственного интеллекта Grok-3 была обучена с использованием 200 000 графических процессоров H100 от Nvidia, обладает возможностями рассуждения, может генерировать и анализировать изображения, поставляется с функцией DeepSearch для анализа интернет- и X-контента и сначала будет доступна премиум-пользователям X, а затем на grok.com и через API. Лучшая полная версия под названием «SuperGrok» стоит 30 долларов в месяц.
Модель ИИ в настоящее время занимает первое место в рейтинге Chatbot Arena. Это означает, что при выполнении таких задач, как кодирование, творческое письмо или выполнение инструкций, Grok-3 справляется лучше, чем ведущие модели от Google (Gemini 2.0 Pro), OpenAI (GPT-4o или o1), DeepSeek (R1) или Anthropic (Claude 3.5 Sonnet). В связи с этим на рынке неожиданно появился новый важный игрок, который предлагает Grok-3 не только конечным потребителям в форме чат-бота, но вскоре предоставит ИИ и корпоративным клиентам через API.
Однако в Европе и Великобритании Grok недоступен как отдельное решение в интернете или как приложение для смартфонов. Ожидается, что приложение Grok для iPhone появится в App Store 28 февраля и уже доступно для предварительного заказа.
Grok-3 — еще один пример инструментов ИИ, которые на момент запуска недоступны в Европе. Среди прочего, некоторые модели Llama, Apple Intelligence или видеомодель Sora от OpenAI недоступны в странах ЕС по разным причинам (защита данных, авторские права и т. д.).
Что особенно примечательно, так это скорость, с которой xAI вывела свои модели ИИ на лидирующие позиции. Grok-1 был запущен в ноябре 2023 года, в тот же год, когда Маск впервые сформировал стартап в области искусственного интеллекта. В августе 2024 года последовал Grok-2, а в феврале 2025 года — Grok-3. За это время xAI привлекла сумму в 12,4 млрд долларов венчурного капитала, большая часть которого пошла на строительство центра обработки данных Colossus в Мемфисе с 200 графическими процессорами Nvidia H100.
В настоящее время xAI находится в процессе привлечения еще десяти миллиардов долларов, а его оценка составляет 75 миллиардов долларов. Для сравнения: на данный момент OpenAI привлекла около 22 миллиардов долларов и планирует получить еще 40 миллиардов долларов от Softbank в рамках проекта Stargate. С момента своего основания в 2021 году Anthropic привлекла около 15 миллиардов долларов, в основном от Amazon и Google. OpenAI и Anthropic готовятся выпустить свои новейшие модели искусственного интеллекта — GPT-4.5 и Claude-4 соответственно.

Grok-3: ещё одна победа «Горького урока»
Поздравления команде xAI — и всем, кто верит в силу масштабирования. На этот раз, похоже, Илон Маск вовсе не преувеличивал, назвав Grok-3 «самым умным ИИ на Земле». Grok-3 — это грандиозный скачок по сравнению с Grok-2. (Полную презентацию можно посмотреть здесь.)
Grok-3 демонстрирует уровень, сопоставимый с моделями таких гигантов, как OpenAI, Google DeepMind и Anthropic, и в ряде задач даже превосходит их. Он занял первые места во всех категориях LMSys Arena, а его версия, ориентированная на рассуждения, показывает, по данным бенчмарков, выдающиеся результаты на уровне o3 в математике, программировании и естественных науках. По большинству параметров он, как минимум, соответствует передовым моделям (хотя и не во всех задачах).
Одним словом, Grok-3 — выдающийся. Но его успех — это не только триумф xAI; это ещё одна — и, возможно, самая очевидная — победа «Горького урока». Вопреки мнению критиков и журналистов, законы масштабирования по‑прежнему определяют развитие ИИ — и даже сильнее, чем когда‑либо.
DeepSeek: исключение, подтверждающее правило
Несмотря на ограниченные вычислительные мощности — 50 тысяч графических процессоров Nvidia Hopper против 100 тысяч и более Nvidia H100 у американских лабораторий — DeepSeek смог конкурировать с лидерами индустрии. Чтобы компенсировать этот разрыв, им пришлось оптимизировать весь стек технологий, продемонстрировав выдающееся инженерное мастерство. И они справились: их успех стал исключением, которое могло поколебать доверие сообщества и к «Горькому уроку», и к парадигме масштабирования.
По крайней мере, так утверждали скептики. По их мнению, DeepSeek с «крошечным кластером GPU» и недорогими обучающими запусками сумел создать модель уровня OpenAI o1. Это, как они полагали, доказывало, что вручную настроенные особенности, человеческая изобретательность и алгоритмические улучшения важнее, чем мощные вычислительные кластеры. Они даже заявляли, что пора избавляться от акций Nvidia, ведь GPU якобы не так уж важны.
Однако этот вывод основан на неправильном понимании «Горького урока» (который, к слову, является не законом природы, а всего лишь эмпирическим наблюдением): он вовсе не утверждает, что алгоритмические улучшения бесполезны, — напротив, он их высоко ценит. Суть урока в другом: если есть выбор, то наращивание вычислительных мощностей для обучения и поиска решений всегда будет предпочтительнее даже самых изощрённых эвристических методов.
DeepSeek добился впечатляющих результатов не потому, что доказал бесполезность масштабирования, а потому, что у него не было иного выхода. Если бы они обучали свою модель на 100-тысячном кластере GPU, как xAI с Grok-3, их результаты были бы ещё лучше. DeepSeek показал, что оптимизация возможна, — но это никак не опровергает силу масштабирования. Эти два явления не исключают друг друга.
Генеральный директор DeepSeek Лян Вэньфэн сам признал, что основным препятствием для их прогресса являются экспортные ограничения США. Если даже при наличии 50 тысяч Hopper он называет нехватку GPU главной проблемой, то утверждать, что «графические процессоры не имеют значения», попросту нелепо. DeepSeek блестяще использовал оптимизацию, но в итоге им всё равно требовался масштаб. И если об этом говорит сам глава компании, почему кто‑то со стороны должен знать лучше?
Феноменальный успех DeepSeek подтверждает «Горький урок» и парадигму масштабирования — даже если на первый взгляд кажется исключением из правил.
xAI: доказательство того, что масштабирование > оптимизация
Вернёмся к Grok-3. Возможно, успех xAI заставит скептиков пересмотреть свою критику масштабирования. Мы не знаем, изменили ли они архитектуру модели или насколько глубоко оптимизировали инфраструктуру, но мы точно знаем, что обучение Grok-3 проходило на суперкомпьютере Colossus с 100 тысячами H100, который xAI построила в Мемфисе, штат Теннесси. Это огромное количество GPU — намного больше, чем у DeepSeek. (Возможно, обе компании использовали лишь часть доступных ресурсов, но логично предположить, что наличие вдвое большего количества GPU позволяет задействовать примерно вдвое больше вычислительных мощностей.)
В отличие от DeepSeek, xAI не пришлось выходить за пределы стандартной оптимизации (например, переписывать CUDA‑ядра или внедрять сомнительные алгоритмические ухищрения). Безусловно, они провели некоторую оптимизацию, но вряд ли настолько глубокую. «Горький урок» гласит: если у вас есть вычислительные мощности, сначала используйте их, а не возитесь с кодом, как вынужденный экономить каждый GPU‑стартап. Простое наращивание масштабов в конечном итоге приносит больше пользы, чем файнтюнинг (этот загадочный твит Маска можно интерпретировать по‑разному). А xAI давно исповедует культ масштабирования.
И скорее всего, именно так они и поступили: бросили на Grok-3 больше вычислительных мощностей, чем даже OpenAI могла себе позволить. Результат? Модель передового уровня.
Хочу сделать небольшое отступление, потому что устал повторять, будто «Горький урок» — это нечто эксклюзивное для ИИ. Нет, это фундаментальный принцип. Если у вас есть избыток главного ресурса, нет смысла выжимать последние капли из второстепенного — проще зачерпнуть полный стакан из источника. Что выберете вы: быть как фримены из «Дюны», выжимать влагу из пота и мёртвых с помощью гениальных, но отчаянных ухищрений, или жить на планете, где просто идёт дождь?
Улучшение алгоритмов и наращивание вычислительных мощностей — оба подхода ценны, но если предельная отдача от усилий резко снижается, имеет смысл сменить точку приложения сил, а не упираться в стену. Вычислительная мощность доступна, пока у вас есть деньги (по крайней мере, пока это так), а ценные алгоритмические прорывы — редкость, которая сегодня может сработать, а завтра нет и вряд ли бесконечно масштабируется. Поэтому почти всегда выгоднее вкладываться в рост вычислительных ресурсов.
Если перед вами «стена», просто меняйте объект масштабирования, но не останавливайтесь. Не. Переставайте. Масштабироваться.
Ограничения действительно порождают инновации, а трудности закаляют. Я уверен, что команда DeepSeek — это настоящие мастера инженерного искусства, но в конечном итоге больше ресурсов всегда побеждает умение делать максимум из минимума. Мир несправедлив, и мне жаль.
Хотелось бы спросить: DeepSeek нравится их нынешнее положение или они бы с радостью поменялись местами с xAI или OpenAI? А вы можете представить, чтобы OpenAI и xAI добровольно отказались от своих GPU ради поиска инноваций в условиях ограничений, как пришлось делать DeepSeek?
В каком‑то смысле xAI и DeepSeek — два запоздавших игрока, выбравших противоположные стратегии для одного и того же вызова. Грубая сила масштабирования против предельной оптимизации ресурсов. Оба добились успеха в своих условиях, но xAI, без сомнения, оказался в лучшем положении — и сохранит преимущество в ближайшие месяцы, пока DeepSeek остаётся заложником нехватки вычислительных мощностей. Ведь, как показывает практика, этот эмпирический (и активно оспариваемый академиками) закон уже более десяти лет приносит победы в реальной гонке технологий.
Переломный момент, который помог и xAI, и DeepSeek
Ещё недавно поздний старт казался непреодолимым барьером в гонке ИИ — когда я впервые оценивал шансы xAI, у меня были сомнения, смогут ли они догнать OpenAI и Anthropic. Но между выходом Grok-2 (август 2024) и Grok-3 (февраль 2025) случилось нечто, что помогло xAI, — и речь не только о суперкомпьютере Colossus с 100 тысячами H100; изменилась сама парадигма масштабирования.
Эпоха предобучения (2019–2024). Изначально масштабирование означало создание всё более крупных моделей, обученных на гигантских наборах данных при помощи мощных суперкомпьютеров. Например, GPT-2 (февраль 2019) имела 1,5 млрд параметров, а GPT-4 (март 2023) оценивается в 1,76 трлн параметров — разница в три порядка. Такой подход естественным образом давал фору ранним игрокам, таким как OpenAI, которые имели многолетнее преимущество в сборе данных, разработке моделей и закупке GPU. Даже без этого преимущества, если на обучение каждой новой модели уходило около полугода, OpenAI всегда оставалась бы как минимум на этот срок впереди xAI.
Эпоха постобучения (2024–???). Всё изменилось, когда компании поняли, что простое увеличение размеров моделей приносит всё меньшую отдачу (СМИ поспешили интерпретировать это как «эпоха масштабирования закончилась», но я настоятельно рекомендую посмотреть этот доклад Ильи Суцкевера на NeurIPS 2024 в декабре) — вместо этого фокус сместился на увеличение вычислений во время вывода (то есть способность моделей задействовать ресурсы для более глубокой проработки ответов). Первой этот подход применила OpenAI в o1-preview. Усиленное обучение с подкреплением в сочетании с классической тонкой настройкой показало высокую эффективность, особенно в структурированных областях, таких как математика и программирование, где есть чёткие, поддающиеся проверке функции награды.
Этот сдвиг в парадигме означал, что масштабирование постобучения стало таким же важным — если не более, — чем масштабирование предобучения. Компании, занимающиеся ИИ, перестали просто увеличивать размер моделей и вместо этого начали делать их умнее. И произошло это как раз в тот момент, когда DeepSeek и xAI создавали свои новые модели. Удачное совпадение.
Важно отметить, что постобучение всё ещё находится в зачаточном состоянии, а быстрые улучшения можно достичь относительно дёшево по сравнению с предобучением. Именно так OpenAI перешла от o1 к o3 всего за три месяца, и это позволило DeepSeek усовершенствовать r1 несмотря на меньшее и менее мощное оборудование, и именно так Grok всего за два года вышел в высшую лигу ИИ.
OpenAI всё ещё сохраняет определённое преимущество, но оно уже не выглядит непреодолимым. Пока Сэм Альтман балансирует между прорывными исследованиями и управлением ChatGPT — продуктом, которым еженедельно пользуются 300 миллионов человек, — у xAI и DeepSeek больше свободы для экспериментов и поиска инноваций. (Приложение DeepSeek сначала резко набрало популярность, но затем пошло на спад — компания просто не имеет достаточно вычислительных мощностей, чтобы обеспечивать стабильную работу для большого числа пользователей.)
Новая парадигма — новое соперничество.
Победы xAI и DeepSeek в правильном контексте
Признание «Горького урока» и смены парадигмы масштабирования никак не умаляет достижений xAI и DeepSeek; да, им было проще, но им всё равно пришлось пройти этот путь. Другие пытались — и не справились (например, Mistral, Character, Inflection). Как я уже говорил, успех Grok-3 — это, прежде всего, триумф «Горького урока», а DeepSeek — скорее исключение, подтверждающее правило. Но сводить их достижения только к этому было бы несправедливо.
Одна только вычислительная мощность — или её нехватка — не решает всего. Точно так же, как «Горький урок» не отменяет ценность улучшения алгоритмов и инфраструктуры, нельзя игнорировать и другие факторы. xAI собрала выдающуюся команду — сейчас в компании около 1000 сотрудников, что сопоставимо с OpenAI (~2000) и Anthropic (~700). Добавьте к этому влияние Илона Маска в мире технологий и финансов — и вот вам огромные возможности для привлечения инвестиций. DeepSeek тоже заслуживает похвалы: они сумели преодолеть ограничения и добиться успеха в локальной экосистеме, где не хватало ни амбиций, ни опытных специалистов, ни государственной поддержки (хотя это может измениться).
Но так же важно не только признавать победу, но и понимать её контекст. OpenAI, Google DeepMind и Anthropic разрабатывали свои модели в то время, когда масштабирование было сложнее, медленнее и дороже (в эпоху предобучения). Никто не знал, насколько успешным окажется что‑то вроде ChatGPT (OpenAI едва не отказалась от его запуска, а когда все же выпустила, позиционировала его лишь как «скромный исследовательский эксперимент»). Эти стартапы были первопроходцами, движимыми непоколебимой верой в успех. Их вклад, пусть сейчас и слегка затенённый заголовками о новых игроках, войдёт в учебники истории.
А xAI и DeepSeek, напротив, использовали уже накопленный опыт этих пионеров. Они извлекли уроки из их проб и ошибок, а также воспользовались удачным моментом: когда новый подход к постобучению позволил ускорить прогресс и снизить затраты. Им не пришлось пробираться на ощупь и делать огромные авансовые вложения с неопределённой отдачей. Поэтому не стоит принижать их успехи, но также не стоит забывать, как мы к этому пришли.
Постобучение пока дешёвое, но скоро станет дорогим
Из истории Grok-3 и xAI можно вынести один важный урок. Как только компании научатся масштабировать постобучение до тех же финансовых масштабов, что и предобучение, — а это неизбежно, ведь они уже накапливают сотни тысяч GPU и строят огромные кластеры, чем немало раздражают сторонников теории «GPU неважны», — конкурентоспособными останутся только те, у кого хватит денег и вычислительных мощностей, чтобы не отставать.
И здесь xAI заняла крайне выгодную позицию — даже лучше, чем DeepSeek, а возможно, и лучше, чем OpenAI и Anthropic: с кластером из 100 тысяч H100 — а вскоре и 200 тысяч — она обеспечила себе мощный задел на следующем этапе развития ИИ. По тому же пути идёт Meta*: в ближайшие месяцы она готовится представить Llama 4*, обученную на кластере из 100 тысяч H100.
Для DeepSeek же одного инженерного мастерства будет недостаточно, какими бы талантливыми они ни были в тонкой настройке стека (возможно, Huawei сможет им помочь). Настанет момент, когда никакая оптимизация не сможет компенсировать разрыв в 150 тысяч GPU. Не поймите неправильно — будь у DeepSeek такая возможность, они бы сделали то же самое, что xAI (ведь они тоже сторонники масштабирования).
Даже OpenAI и Anthropic не имеют такого «забронированного» доступа к кластерам, как xAI, — Nvidia явно отдаёт приоритет компании Маска, обеспечивая ей доступ к передовому оборудованию нового поколения.
Кто будет лидером через год?
Несмотря на всё это, OpenAI, Google DeepMind и Anthropic пока сохраняют небольшое преимущество. OpenAI готовится выпустить GPT-4.5/GPT-5, затем o4, а Anthropic скоро представит Claude-4. Google DeepMind продолжает совершенствовать интеллектуальные версии Gemini-2.0 и активно работает над снижением затрат и увеличением контекстного окна.
Совсем недавно я прогнозировал, что к концу года лидером станет Google, но теперь уже не уверен: конкуренция достигла небывалой остроты, и гонка к созданию AGI пока не имеет очевидного фаворита. Новая парадигма благоприятствует поздним игрокам, но требует высокой гибкости — и не факт, что Google этим качеством обладает. Возможно, их главная проблема не недостаток достижений, а слабые маркетинговые усилия, из‑за чего их успехи выглядят менее впечатляющими, чем у конкурентов.
Но мой итоговый вывод будет не о гонке ИИ; это о правиле, которое раз за разом подтверждается, разрушая надежды тех, кто хочет верить, что человеческая изобретательность всегда возьмёт верх над простым масштабированием. Простите, друзья, но некоторые вещи нам просто неподвластны.
Grok-3 действительно впечатляет, но, прежде всего, он снова доказывает: когда дело касается создания интеллекта, масштабирование неизменно побеждает голую гениальность.
* Meta признана экстремистcкой организацией в России.
* Llama — проект Meta Platforms Inc., деятельность которой запрещена в России.
