Компания MiniMax, занимающаяся разработкой искусственного интеллекта (ИИ) из Китая, представила новую модель M2.7, которая, как сообщается, активно участвовала в своём собственном развитии. Модель использовала автономные оптимизационные циклы для улучшения своего процесса обучения и показала конкурентоспособные результаты на бенчмарках.
В ходе разработки M2.7 обновляла свои собственные хранилища знаний, создавала десятки сложных функциональностей в своей агентской инфраструктуре и улучшала обучение на основе вознаграждений. Эти улучшения затем использовались для дальнейшей оптимизации процесса обучения модели.
MiniMax описывает M2.7 как "нашу первую модель, глубоко участвующую в своей собственной эволюции" и рисует перспективу, где будущие ИИ будут постепенно переходить к полной автономии, координируя все этапы: от сбора данных до обучения модели, архитектуры вывода, оценки и других процессов без участия человека.
В одном эксперименте M2.7 оптимизировала производительность модели в внутренней разработочной среде полностью самостоятельно за более чем 100 циклов. На каждом этапе она анализировала ошибки, планировала изменения, корректировала код, тестировала результаты и решала, стоит ли сохранить или отбросить эти изменения. По данным MiniMax, это привело к 30-процентному увеличению производительности на внутренних тестовых наборах.
В 22 соревнованиях по машинному обучению из OpenAI's MLE Bench Lite M2.7 показала средний результат в 66,6 процента за три запуска длительностью в 24 часа. Это ставит модель позади Opus 4.6 (75,7 процента) и GPT-5.4 (71,2 процента), но на уровне Gemini 3.1, согласно заявлениям компании.
M2.7, по утверждению MiniMax, демонстрирует результаты, сопоставимые с ведущими западными моделями в бенчмарках программной инженерии. На SWE-Pro модель набрала 56,22 процента, что сравнимо с GPT-5.3-Codex. На VIBE-Pro, бенчмарке для полной доставки проектов, M2.7 показала результат в 55,6 процента.
В реальных сценариях применения M2.7 якобы сократила время восстановления после сбоев в производственных системах до менее чем трёх минут на нескольких случаях. Для профессиональной офисной работы M2.7 достигла ELO-балла 1,495 на бенчмарке GDPval-AA, что является самым высоким показателем среди моделей с открытым весом, по данным MiniMax.
Модель также показала высокую точность при выполнении многоуровневых редактирований в Word, Excel и PowerPoint, сохраняя 97-процентную целостность правил для более чем 40 сложных инструкций. В качестве практического примера MiniMax приводит случай финансового анализа компании TSMC, где M2.7 самостоятельно прочла годовые отчёты, построила модель прогнозирования продаж и представила результаты в виде презентации и исследовательского отчёта. Финансовые эксперты отметили, что результаты уже можно использовать как первоначальный черновик.
Помимо сценариев повышения продуктивности, MiniMax также улучшила характерную согласованность и эмоциональный интеллект модели. Для демонстрации этой функции компания выпустила OpenRoom — открытый проект, переносящий взаимодействие с ИИ в графическую веб-среду, где персонажи активно взаимодействуют со своим окружением.
M2.7 доступна через платформу MiniMax Agent и API-платформу; в отличие от предыдущих версий модели, веса пока не предоставляются.