← Все новости

Meta представила четыре поколения чипов MTIA для снижения затрат на ИИ-инференс

• Категория: Hardware • Автор: Александр Ковалёв • Проверил: Екатерина Морозова • 12.03.2026 15:47

Инженерное подразделение Meta* представило дорожную карту развития собственных кремниевых решений для систем искусственного интеллекта. Речь идет о четырех поколениях специализированных чипов (ASIC) — MTIA 300, 400, 450 и 500. Проект реализуется в тесном партнерстве с Broadcom. Основная цель разработки — радикальное снижение операционных издержек при масштабировании ИИ-сервисов на многомиллиардную аудиторию платформ компании. Цикл разработки впечатляет своей интенсивностью: вендор планирует выпускать новое поколение чипов каждые шесть месяцев.

Архитектурный прогресс и производительность линеек

Динамика развития аппаратной части прослеживается в кратном росте характеристик. Если рассматривать путь от младшей модели MTIA 300 к флагманской MTIA 500, то пропускная способность памяти (HBM) возрастает в 4,5 раза, а общая вычислительная мощность демонстрирует 25-кратный скачок. Стартовая модель серии, MTIA 300, уже мигрировала в стадию промышленной эксплуатации. Ее архитектура оптимизирована под конкретную задачу — работу алгоритмов ранжирования и рекомендательных систем, которые формируют ленты новостей и контентные подборки.

Следующий этап эволюции представляет MTIA 400. По заявлениям разработчиков, это первое решение в линейке, способное на равных конкурировать с топовыми коммерческими ускорителями по показателям «чистой» производительности. В плане системной интеграции 72 таких чипа объединяются в единую стойку, формируя масштабируемый домен (scale-up domain). На текущий момент MTIA 400 успешно прошла лабораторные циклы и начала поступать в центры обработки данных.

Фокус на генеративный ИИ и оптимизацию вычислений

Модели MTIA 450 и MTIA 500 проектировались с прицелом на инференс (исполнение) генеративных нейросетей. В версии 450 инженеры удвоили пропускную способность HBM по сравнению с «четырехсоткой», что позволило превзойти доступные на открытом рынке аналоги. Особый акцент сделан на поддержке форматов данных низкой точности — MX4 и MX8. На практике это значит, что нейросеть потребляет значительно меньше вычислительных ресурсов при инференсе, сохраняя при этом приемлемое качество ответов и генерации.

MTIA 500 наращивает мускулы еще агрессивнее: пропускная способность памяти увеличивается на 50%, а ее объем — на 80%. По планам компании, обе платформы (450 и 500) выйдут на этап массового производства к 2027 году. Проще говоря, компания строит долгосрочный фундамент, чтобы не зависеть от дефицита сторонних решений в эпоху тотального перехода на генеративные модели.

Программный стек и облачная инфраструктура

С точки зрения софта Meta* придерживается политики открытых стандартов. Чипы MTIA бесшовно работают с PyTorch, vLLM и Triton. Для разработчиков это означает отсутствие «вендор-лока»: существующие модели можно переносить на новое железо без переписывания кода под специфические инструкции. Более того, архитектура позволяет распределять нагрузку, одновременно используя и классические GPU, и собственные чипы MTIA в рамках одной задачи.

Несмотря на амбиции в области собственной разработки, компания не отказывается от внешних поставок. Параллельно развивается сотрудничество с технологическими гигантами — AMD и Nvidia. В частности, в начале 2026 года была финализирована сделка с AMD объемом в миллиард долларов. Согласно договоренностям, Meta* получит вычислительные мощности на базе ускорителей AMD Instinct общим эквивалентом до шести гигаватт для обеспечения своих ИИ-нагрузок.

*Компания Meta признана экстремистской организацией и запрещена в РФ

Теги: #ИИ, #Meta, #инференс, #чипы, #Broadcom, #генеративный ИИ, #MTIA