← Все новости

Amazon начнёт запускать ИИ-модели на чипах Cerebras в AWS

• Категория: Hardware • Автор: Александр Ковалёв • Проверил: Екатерина Морозова • 14.03.2026 12:28

Amazon планирует использовать чипы стартапа Cerebras Systems Inc. в сочетании со своими собственными процессорами Trainium для оптимизации запуска больших языковых моделей. Платформа Amazon Web Services (AWS), одна из крупнейших в мире поставщиков облачных вычислительных мощностей, начнёт предлагать новый сервис на основе данного партнёрства во второй половине 2026 года. Финансовые условия сделки не разглашаются.

Партнёрство Amazon и Cerebras направлено на удовлетворение растущего спроса на инфраструктуру для вычислений в сфере искусственного интеллекта. Вице-президент AWS Нафия Бшара (Nafea Bshara) отметила, что компании готовились к этому сотрудничеству несколько лет и будут использовать столько чипов, сколько будет необходимо для обеспечения требуемых вычислительных мощностей.

Для Cerebras, которая планирует первичное публичное размещение акций (IPO), участие в проекте с Amazon поможет повысить узнаваемость на потенциально огромном рынке. AWS стала первой среди крупнейших операторов центров обработки данных, кто обязался использовать чипы Cerebras в своей инфраструктуре.

Чипы Amazon Trainium 3 и Cerebras Wafer Scale Engine будут работать вместе для обеспечения инференс-вычислений, то есть запуска больших языковых моделей и генерации ответов на запросы. Чипы Trainium 3 будут обрабатывать пользовательские запросы, а чипы Cerebras — генерировать ответы. Этот подход обычно имеет недостаток в виде замедления взаимодействия между компонентами, но компании стремятся получить преимущество за счёт использования специализированных чипов, способных быстрее обрабатывать задачи инференса.

Улучшение производительности будет особенно заметно в областях, требующих взаимодействия с пользователем, таких как поэтапное написание программного кода. «Хотя сервис только на базе чипов Trainium, вероятно, будет дешевле, новое комбинированное предложение станет привлекательным там, где время — деньги», — считает Бшара.

Amazon продолжает оставаться крупным клиентом Nvidia и ведёт разработку собственных ИИ-чипов. Эти усилия направлены на улучшение экономических показателей центров обработки данных компании и предоставление клиентам уникальных услуг.

Теги: #ИИ, #облачные вычисления, #Amazon AWS, #Cerebras Systems, #Trainium, #Wafer Scale Engine, #инференс моделей