← Все новости

Википедия вводит ограничения на ИИ-переводы из-за галлюцинаций

• Категория: Искусственный интеллект • Автор: Алексей Воронов • Проверил: Екатерина Морозова • 05.03.2026 17:50

Редакция "Википедии" внедряет новые правила для некоторых авторов, которые применяли генеративные модели искусственного интеллекта для перевода статей на различные языки. Такая мера стала реакцией на многочисленные "галлюцинации" — ошибки и вымышленные данные, которые проникали в переведенные тексты. Корень проблемы кроется в деятельности некоммерческой организации Open Knowledge Association (OKA), активно работающей над расширением и переводом контента "Википедии". OKA финансово поддерживает переводчиков через ежемесячные стипендии, при этом поощряя их использование больших языковых моделей (LLM) для оптимизации процесса.

Специалисты "Википедии" начали выявлять закономерности в низком качестве переводов. В качестве примера приводится случай со статьей о французской дворянской семье La Bourdonnaye: в переведенном тексте указывалась ссылка на конкретную страницу в книге, однако при проверке выяснилось, что такой информации там не было. Редактор Ильяс Лебло, проведя выборочный аудит нескольких переводов, подтвердил наличие регулярных ошибок.

В ходе последующего обсуждения выяснилось, что многие переводчики, сотрудничающие с OKA, работают как независимые подрядчики, часто из стран глобального Юга. Они используют популярные ИИ-модели, такие как ChatGPT, Gemini, а ранее и Grok, просто копируя исходный текст статьи и вставляя его в чат-боты для автоматического перевода. Инструкции OKA, хоть и предписывают переводчикам проверять и редактировать сгенерированный ИИ текст, на практике соблюдались не всегда.

Сообщество "Википедии" приняло решение не вводить полный запрет на использование генеративного ИИ в переводах, но ужесточило регламент для участников проекта OKA. Теперь, если переводчик получает четыре предупреждения за непроверенный или некорректный контент в течение полугода, его аккаунт может быть заблокирован. Помимо этого, материалы, добавленные таким пользователем, могут быть удалены, если другой редактор не возьмет на себя ответственность за их верификацию.

В ответ на критику OKA усовершенствовала свою систему контроля качества. Законченные переводы теперь проходят дополнительную проверку другой языковой моделью. Цель этой меры — сравнить переведенный текст с оригиналом и обнаружить возможные несоответствия. Однако, по мнению экспертов, применение ИИ для проверки результатов работы другого ИИ не исключает появления новых ошибок, поскольку обе системы могут обладать схожими "слепыми зонами" и подвергаться аналогичным предубеждениям или "галлюцинациям".

Теги: #ИИ, #ChatGPT, #Википедия, #переводы, #галлюцинации ИИ, #OKA, #ограничения редакторов