Тег

MoE

Материалы, в которых упоминается MoE.

Mistral AI small 4
LLM / ChatGPT / Claude / Qwen Выделенный материал Автор Алексей Воронов

Mistral AI анонсировала Small 4: MoE-модель на 119 млрд параметров под Apache 2.0

Модель активирует лишь 6 млрд параметров на токен из 128 экспертов, ускоряя инференс на 40% и повышая пропускную способность в 3 раза. Введена настройка reasoning_effort...

Нет изображения
Generative AI Автор Алексей Воронов

Meta видит немаркированное видео новым фронтиром обучения ИИ

Исследователи Meta FAIR и NYU обучили мультимодальную модель с нуля на текстах и видео, опровергая ключевые предположения. Единый энкодер справляется с генераци...