Содержание
Intel и Google договорились о многолетнем сотрудничестве: процессоры Xeon продолжат занимать ключевое место в инфраструктуре Google Cloud, включая системы под AI-нагрузки. Речь идёт о нескольких будущих поколениях Xeon и о глобальных дата-центрах Google.
Сделка закрывает сразу три типа задач: AI-инференс, «обычные» облачные вычисления и смешанные сценарии, где CPU всё ещё решает. И да, это тот случай, когда CPU в эпоху ускорителей никуда не уходит.
Почему Google продолжает ставить Xeon в облако
Сейчас инстансы Google Cloud C4 и N4 уже работают на Xeon 6. Новый договор закрепляет, что эта линия продолжится и дальше, на следующих поколениях Xeon.
У Google в дата-центрах не одна архитектура. Компания использует и Xeon 5, и Xeon 6, а параллельно развивает собственные Arm-процессоры Axion. Но у x86 остаются сильные аргументы: часть софта требует обратной совместимости с x86, а часть задач упирается в максимальную однопоточную производительность, где Xeon традиционно силён.
CPUs, IPUs и «баланс системы» для AI
В Intel прямо проговаривают мотивацию: AI-системы надо масштабировать не только ускорителями. Глава Intel Лип-Бу Тан заявил: «AI reshaping how infrastructure is built and scaled… Scaling AI requires more than accelerators — it requires balanced systems. CPUs and IPUs are central to delivering the performance, efficiency, and flexibility modern AI workloads demand».
В этой логике важна вторая часть сделки: Intel и Google совместно разрабатывают кастомные IPU (infrastructure processing unit) для сетевых, storage- и security-задач. Это ASIC-ускорители, которые берут на себя «инфраструктурную рутину» и разгружают хостовые CPU, чтобы Xeon больше времени тратил на выполнение приложений.
Google описывает это как базовый паттерн для современных AI-систем. Старший вице-президент и главный технолог по AI-инфраструктуре Google Амин Вахдат говорит, что CPU и инфраструктурные ускорители остаются «краеугольным камнем» AI-стека — от оркестрации обучения до инференса и деплоя.
Контекст: гиперскейлеры уходят в Arm, а Intel удерживает x86
Эта договорённость выглядит особенно показательно на фоне тренда на кастомный кремний у гиперскейлеров. Counterpoint Research ранее оценивала, что 90% AI-серверов с кастомным «железом» будут опираться на Arm ISA, а доля x86 в новых развёртываниях окажется небольшой.
На практике это означает, что Intel приходится доказывать ценность Xeon не лозунгами, а интеграцией в реальный облачный стек. Совместная разработка IPU и ставка на «разделение труда» между CPU и инфраструктурными ускорителями — как раз про это: повысить эффективность больших облачных парков, где крутятся AI-инструменты, агенты и LLM.
Подробности сделки Intel раскрыла в пресс-релизе: Intel and Google deepen collaboration to advance AI.