Microsoft отключила автоматическое соавторство Copilot в VS Code после жалоб

Логотип Microsoft Copilot
Логотип Microsoft Copilot • Все права на публикацию принадлежат AInDev.ru

В Visual Studio Code произошел сбой логики работы системы контроля версий, из-за которого метаданные Git автоматически обогащались пометкой «Co-authored-by: Copilot». Проблема затронула версию расширения Git 1.110, выпущенную в начале марта. Инструмент присваивал статус соавтора ИИ-помощнику даже в тех случаях, когда пользователь не использовал ассистента или вовсе деактивировал чат Copilot.

Механика ошибочного авторства

Ситуация вскрылась после жалоб разработчиков: пометка о соавторстве появлялась в коммитах, написанных исключительно человеком. Один из пользователей столкнулся с этим при ручной правке сообщения коммита: даже после того, как он удалял предложенный нейросетью текст, метаданные все равно отправлялись в историю Git с упоминанием ИИ. Если коротко, система «принудительно» записывала помощника в соавторы, игнорируя реальный вклад человека или даже факт отсутствия активности ИИ.

Дмитрий Васюра, участник команды рецензирования VS Code, прокомментировал инцидент, пояснив, что подобное поведение стало результатом попытки Microsoft по умолчанию реализовать функционал «прослеживаемости» кода. На практике это значит, что корпорация хотела сделать процесс ведения документации более прозрачным для тех команд, которые активно внедряют нейросети в свои процессы. Васюра признал, что автоматическое добавление некорректной информации, особенно при отключенном ИИ, является ошибкой, которую компания оперативно устранила.

Риски для интеллектуальной собственности и прав

Подобные «атрибуты» в Git-истории несут в себе далеко идущие юридические последствия. Проблема заключается в определении авторства: во многих юрисдикциях контент, сгенерированный нейросетями, может не подлежать защите авторским правом в полном объеме. Автоматическая подстановка Copilot в соавторы без фактического участия модели лишает владельца кода возможности доказать, что интеллектуальный вклад был сделан человеком.

На практике это создает серьезные риски: от отказа страховых компаний в покрытии ответственности за ошибки в коде — если правила страховщика исключают ИИ-контент — до репутационных потерь в сообществах, где использование генеративных инструментов ограничено. Аналогичные дискуссии ранее возникали вокруг Claude Code от Anthropic и OpenAI Codex, где вопрос маркировки ИИ-помощи также является предметом активных споров между разработчиками и поставщиками инструментов.