Содержание
Nvidia инвестировала $2 млрд (около 160 млрд рублей) в Marvell Technology и заключила стратегическое партнёрство. Цель простая: подтянуть Marvell к экосистеме AI-фабрик Nvidia через NVLink Fusion, то есть к фирменному межсоединению для стоек и кластеров.
По словам CEO Nvidia Дженсена Хуанга, «inference inflection has arrived» — спрос на генерацию токенов растёт, и компании ускоренно строят AI-фабрики. Nvidia хочет, чтобы рядом с её GPU, CPU и сетями работали и сторонние ускорители, но по её правилам и на её «тканях» связи.
NVLink Fusion: сторонние ускорители, но с обязательным компонентом Nvidia
NVLink Fusion Nvidia запустила в мае 2025 года как платформу для гетерогенной AI-инфраструктуры. Смысл в том, чтобы не-Nvidia ускорители могли общаться с GPU Nvidia через высокополосный и низколатентный интерконнект, и при этом оставались совместимыми с rack-scale платформами Nvidia.
Но там есть жёсткое условие: каждая NVLink Fusion-платформа должна включать минимум один продукт Nvidia. Компания прямо привязывает экосистему к своим компонентам, даже если заказчик строит стойку на кастомных ASIC.
- Marvell: кастомные XPU и scale-up networking, совместимые с NVLink Fusion
- Nvidia: CPU Vera, сетевые карты ConnectX, DPU BlueField и компоненты NVLink
Что именно приносит Marvell в экосистему Nvidia
В этой связке Marvell интересна не только как «ещё один партнёр». Компания сильна в железе, которое критично для современных AI-стоек: высокопроизводительная аналоговая часть, оптические DSP, silicon photonics и кастомный кремний.
Marvell отдельно подчёркивает, что подключает своё лидерство в оптических DSP, silicon photonics и custom silicon к расширяющейся экосистеме Nvidia через NVLink Fusion. Это важно для плотных кластеров, где упираются не только в FLOPS, но и в то, как быстро «склеиваются» ускорители и память на уровне стойки.
Финансовый контекст у Marvell тоже сильный: компания отчиталась о $8,2 млрд выручки за финансовый 2026 год (закончился в январе 2026), и более 74% этой суммы дала дата-центровая часть бизнеса.
Ещё один штрих: покупка Celestial AI «в конце прошлого года» добавила Marvell технологии photonic fabric. Теперь эта компетенция фактически оказывается внутри экосистемы Nvidia.
Где начинается конфликт интересов: Marvell уже работает с Amazon Trainium
Самый нервный момент в новости — положение Marvell между двумя мирами. Marvell уже помогает Amazon разрабатывать ускорители Trainium, и это сотрудничество началось за несколько лет до новой сделки с Nvidia.
При этом в объявлении Nvidia и Marvell нет ответа на прямой вопрос: появится ли из этого партнёрства какая-то связка с Trainium. Факт остаётся фактом: Nvidia «затягивает» крупного разработчика кастомных чипов в проприетарную экосистему, где она контролирует стандарт интерконнекта.
NVLink Fusion против UALink: индустрия делится на два лагеря
- Samsung Foundry — в октябре прошлого года
- Arm — в ноябре прошлого года, чтобы лицензии Arm могли делать NVLink-совместимые CPU
Но ключевые конкуренты Nvidia в этом списке не появились. AMD, Intel и Broadcom остаются вне NVLink Fusion и поддерживают открытый стандарт UALink как альтернативу для rack-scale интерконнекта. На рынке формируется понятный раскол: проприетарная «ткань» Nvidia против открытого лагеря.
В пресс-релизе Nvidia есть и прямая цитата Хуанга: «The inference inflection has arrived. Token generation demand is surging, and the world is racing to build AI factories». По этой логике Nvidia и вкладывает $2 млрд в Marvell, чтобы быстрее масштабировать «специализированные AI-вычисления» на своей инфраструктуре.
По материалам Nvidia.