Содержание
Nvidia рассказала, как внедряет ИИ почти на каждом этапе проектирования чипов. По словам главного научного сотрудника компании Уильяма Далли, задача, которая раньше занимала 10 месяцев и требовала 8 инженеров, теперь делается за ночь на одной GPU. При этом Далли прямо говорит: до ситуации «сказал ИИ — спроектируй новый GPU» компания пока «ещё далеко».
Как 8 инженеров и 10 месяцев превратились в «overnight»
Речь про перенос стандартной библиотеки ячеек (standard cell library) при переходе на новый техпроцесс. Это один из самых трудоёмких этапов в низкоуровневом дизайне, потому что от качества ячеек дальше зависят частоты, энергопотребление и площадь кристалла.
Далли уточнил масштаб: библиотека — это примерно 2 500-3 000 ячеек. Раньше её портирование занимало около 10 месяцев усилиями восьми инженеров. Сейчас Nvidia заменяет эту работу системой обучения с подкреплением NB-Cell, которая выполняет тот же объём «за ночь» на одной GPU.
Chip Nemo и Bug Nemo: внутренние LLM как «терпеливый ментор»
На уровне архитектуры и работы с документацией Nvidia использует собственные большие языковые модели. Далли назвал их Chip Nemo и Bug Nemo.
Компания взяла «обычную» LLM и дообучила её на закрытых материалах Nvidia. В набор вошли документы по архитектуре, RTL и спецификации по всем GPU, которые Nvidia проектировала раньше. В итоге модели работают как инженерные ассистенты: младший разработчик задаёт вопрос, а LLM объясняет, как устроен конкретный блок. Nvidia подчёркивает, что так старших инженеров меньше отвлекают на задачи, которые можно закрыть через LLM.
«We are trying to use AI wherever we can in our design process. I would love to have the end-to-end stage where I could simply say, ‘design me the new GPU,’ but I think we are a long way from that», — сказал Уильям Далли в разговоре с Джеффом Дином из Google.
ИИ уже влияет на схемотехнику, раскладку и верификацию, но «автопилота» нет
По словам Далли, Nvidia применяет ИИ от оптимизаций на уровне схем до исследования вариантов на уровне системы. Он говорит об «orders-of-magnitude» росте продуктивности и о случаях, когда результат выходит лучше человеческого.
Один из примеров — обучение с подкреплением для классических задач схемотехники. Такой агент перебирает варианты методом проб и ошибок и иногда находит нетипичные решения. Далли описывает их так: «получаются странные дизайны, которые человек бы не придумал», но они оказываются на 20-30% лучше человеческих по метрикам площади, энергопотребления и производительности.
Nvidia также применяет ИИ в place and route и в раннем архитектурном поиске. Агентные системы запускают много экспериментов, оценивают направления и сужают набор жизнеспособных конфигураций. Это ускоряет этап, где команда выбирает компромиссы архитектуры, пока цена ошибки ещё максимальная.
Самым длинным этапом в цикле разработки Далли называет верификацию. Nvidia уже пытается «сжать» этот участок с помощью ИИ, но полностью отдать проверку нейросети нельзя. Компания всё равно эмулирует дизайн и проводит реальные эксперименты, чтобы убедиться, что всё работает.
«We would like to collapse that space, what the really long pole is design verification», — сказал Далли, добавив, что Nvidia ищет способы быстрее доказывать корректность дизайна.
Идеальную картину на будущее Далли описывает как «мультиагентную» разработку, где разные ИИ-системы ведут свои части проекта, как это делает человеческая команда. А пока, по его словам, мечта про команду из одного человека и фразы «design me the new GPU» остаётся далёкой: «I think we are a long way from that».
По материалам выступления Nvidia на GTC (сессия с участием Джеффа Дина).