← Все новости

Arena: бенчмарк для LLM от проекта Беркли до $1,7 млрд

• Категория: LLM / ChatGPT / Claude / Qwen • Автор: Алексей Воронов • Проверил: Екатерина Морозова • 21.03.2026 23:32

Рыночная конкуренция в сфере больших языковых моделей (LLM) привела к необходимости создания независимых инструментов оценки производительности. Платформа Arena, стартовавшая как академический проект исследователей из Калифорнийского университета в Беркли, за семь месяцев трансформировалась в ключевой отраслевой бенчмарк. На текущий момент капитализация проекта достигла $1,7 млрд, что подчеркивает значимость объективного ранжирования для инвестиционных фондов и разработчиков моделей.

Техническая реализация и защита от манипуляций

Основная сложность существующих статических бенчмарков заключается в их подверженности «подгонке» со стороны разработчиков. Если коротко, модели нередко обучаются непосредственно на тестовых наборах данных, из-за чего результаты тестов перестают отражать реальные способности нейросети. Проект Arena использует иной подход: динамический слепой тест, где пользователи оценивают ответы двух анонимных моделей.На практике это значит, что система формирует рейтинг на основе субъективных предпочтений живых людей, что значительно усложняет алгоритмические манипуляции. Основатели проекта Анастасиос Ангелопулос и Вэй-Линь Чан делают ставку на концепцию «структурной нейтральности». Такой подход призван обеспечить объективность даже при условии, что в развитие проекта вовлечены крупнейшие игроки индустрии, такие как OpenAI, Google и Anthropic.

Расширение функционала и отраслевая специализация

Текущая архитектура рейтинга начинает учитывать узкопрофильные показатели. Например, модель Claude показывает преимущество в экспертных категориях, таких как юриспруденция и медицина. Разработчики Arena планируют выход за рамки простых текстовых чатов. В планах компании — развитие корпоративного продукта для оценки производительности ИИ-агентов, эффективности генерации программного кода и способности нейросетей решать прикладные задачи в реальных условиях.Подобная эволюция критериев оценки превращает платформу из узкоспециализированного научного инструмента в комплексную инфраструктуру для проверки эффективности технологий на всех уровнях: от разработки ПО до автоматизации бизнес-процессов.*Компания Meta (владелец социальной сети Threads) признана экстремистской организацией и запрещена в РФ

Автор

Алексей Воронов

Алексей Воронов

Senior PHP Developer / AI Engineer • 10+ • AInDev.ru

Алексей Воронов — backend-разработчик и специалист в области веб-разработки на PHP и AI-интеграций. Более 10 лет занимается разработкой серверных приложений, REST API, микросервисной архитектуры и SaaS-решений. Основная...

Проверил

Екатерина Морозова

Екатерина Морозова

AI Systems Reviewer & Backend Software Engineer • 8+ • AInDev.ru

Екатерина Морозова — специалист в области интеграции систем искусственного интеллекта и backend-разработки. Имеет более 8 лет опыта в разработке программного обеспечения и внедрении AI-технологий в веб-приложения. Основ...

Теги: #ИИ, #корпоративный ИИ, #LLM, #бенчмарки, #Arena, #динамические тесты, #AI-нейтральность