Nvidia актуализировала дорожную карту развития серверных решений, анонсировав переход на новые архитектуры центральных и графических процессоров, а также внедрение принципиально новых способов межчипового взаимодействия. Ключевыми элементами стратегии станут процессоры Rosa, многочиповые GPU Feynman и внедрение оптической передачи данных через интерфейс NVLink.
Rosa CPU и архитектура Feynman
Центральный процессор Rosa заявлен как ключевой компонент будущих вычислительных систем, ориентированных на задачи ИИ и высокопроизводительные вычисления (HPC). Архитектура процессора нацелена на повышение удельной производительности и энергоэффективности, что становится критически важным для масштабируемых дата-центров.Параллельно с этим Nvidia переходит к стековой компоновке графических процессоров, получившей название Feynman. В рамках этой технологии несколько кристаллов GPU объединяются в рамках одного корпуса. Если объяснять проще, это позволяет кратно увеличить пропускную способность памяти и вычислительную плотность, что крайне необходимо для обучения и инференса массивных нейросетей, где объем данных растет быстрее, чем возможности традиционных одночиповых решений.
Оптический NVLink и новые форматы данных
Масштабирование системы ограничено не только скоростью самих ядер, но и возможностями их обмена данными друг с другом. Внедрение оптического NVLink означает замену классических медных соединителей на систему передачи данных по оптоволокну. На практике это радикально расширяет пропускную способность между GPU и другими узлами системы, снимая узкие места при передаче терабайтов данных между стойками или внутри них. Переход с меди на оптику минимизирует задержки, которые становятся критическими в кластерах с тысячами ускорителей.
Интеграция Groq LPU с форматом NVFP4
Отдельное внимание в обновленной стратегии уделено специализированным процессорам Groq LPU. Они получат поддержку формата данных NVFP4, который оптимизирован специально для операций инференса ИИ. Интеграция LPU в экосистему NVLink позволит этим процессорам работать в связке с основной инфраструктурой Nvidia, обеспечивая прирост скорости в задачах компьютерного зрения и обработки естественного языка.Обновленная дорожная карта Nvidia демонстрирует комплексный подход к развитию аппаратного обеспечения: компания делает ставку не только на сырую вычислительную мощность, но и на пересмотр архитектуры самих процессоров, методов их компоновки и способов передачи данных внутри вычислительного узла. Эти изменения призваны обеспечить масштабируемость и энергетическую эффективность, соответствующие будущим требованиям нейросетевых моделей.