Mistral AI анонсировала Small 4: MoE-модель на 119 млрд параметров под Apache 2.0
Модель активирует лишь 6 млрд параметров на токен из 128 экспертов, ускоряя инференс на 40% и повышая пропускную способность в 3 раза. Введена настройка reasoning_effort для баланса скорости и глубины анализа.