Содержание
OpenAI договорилась о 3 ГВт выделенной мощности под инференс, и ключевым поставщиком станет решение NVIDIA-Groq. Параллельно NVIDIA готовит показ Groq-ориентированного «процессора» на GTC 2026, который пройдет в марте.
Речь именно про инференс. Это та часть работы ИИ, когда модель уже обучена и отвечает пользователям. Для ChatGPT это главный «постоянный расход». И он растет вместе с аудиторией и нагрузкой.
Что именно известно про 3 ГВт «dedicated inference capacity»
В свежих договоренностях фигурирует формулировка 3GW of dedicated inference capacity. Это не «видеокарты в штуках», а уровень энергетики и инфраструктуры, который обычно ассоциируют с крупными дата-центрами и отдельными площадками под конкретного заказчика.
OpenAI параллельно ведет финансовые сделки с инфраструктурными партнерами по всему рынку. И компания прямо говорит, что инвестиции нужны, чтобы поддерживать рост вычислений. В публичных материалах OpenAI это описывает как масштабирование инфраструктуры под спрос на ИИ-сервисы.
Новый раунд финансирования оценивают в $110 млрд. В числе участников упоминаются NVIDIA, SoftBank и Amazon. Для OpenAI это способ заранее «застолбить» вычислительные ресурсы, вместо того чтобы покупать их по факту дефицита.
NVIDIA покажет Groq-решение на GTC 2026
NVIDIA планирует показать на GTC 2026 Groq-фокусный «процессор». По времени это привязано к мартовскому мероприятию, где компания также готовит крупные анонсы по платформе Vera Rubin и, возможно, следующему поколению под названием Feynman.
Пока нет подтвержденных характеристик. Нет данных по техпроцессу, памяти, формату ускорителя или итоговой производительности. Но сам факт, что крупнейший клиент заранее бронирует инференс-емкость, выглядит как ставка на продукт, который должен закрыть болевые точки именно по задержкам и эффективности.
Почему OpenAI снова делает ставку на NVIDIA, а не на альтернативы
За последние месяцы OpenAI присматривалась к более эффективным альтернативам NVIDIA для инференса. В обсуждениях фигурировали Cerebras и Groq, в том числе для задач с жесткими требованиями к задержке.
При этом в индустрии ходили разговоры, что OpenAI не устраивает то, как NVIDIA закрывает именно инференс-сценарии. На этом фоне решение закрепить 3 ГВт под связку NVIDIA-Groq выглядит как компромисс: сохранить экосистему NVIDIA, но получить специализированную часть под быстрый инференс.
По ожиданиям рынка, итоговый продукт может быть не «одной платой», а гибридной конфигурацией. Например, в виде compute-tray, где NVIDIA дает привычную инфраструктуру, а Groq отвечает за низкую задержку на инференсе. Но это пока уровень предположений, без финальной схемы от NVIDIA.
Где посмотреть первичную информацию по инфраструктурным планам OpenAI
OpenAI уже публиковала описание своей стратегии масштабирования инфраструктуры и партнерств. Ссылка на материал компании: Scaling AI for everyone.
Дальше ждем мартовский GTC 2026. Именно там NVIDIA должна показать, что скрывается за Groq-ориентированным «процессором», и насколько реалистично закрыть инференс на уровне, который требует OpenAI.