← Все новости

Коалиция экспертов предложила принципы ответственного развития ИИ

Декларация о запрете ИИ

Декларация о запрете ИИ • Все права принадлежат AInDev.ru

• Категория: Искусственный интеллект • Автор: Екатерина Морозова • Проверил: Алексей Воронов • 08.03.2026 10:20

Несогласие Вашингтона с Anthropic высветило отсутствие чётких регуляторных норм в сфере искусственного интеллекта. На этом фоне коалиция экспертов, представляющих различные политические взгляды, предложила собственный подход к ответственному развитию ИИ, который правительство пока не представило.

«Декларация в защиту человечества» была завершена до конфликта между Пентагоном и Anthropic, но участники событий восприняли этот инцидент как подтверждение актуальности документа.

ИИ и общественное мнение

Макс Тегмарк, физик из Массачусетского технологического института и исследователь ИИ, один из организаторов инициативы, отметил значительные изменения в общественном мнении США за последние четыре месяца. Согласно опросам, 95% американцев выступают против нерегулируемой гонки по созданию сверхразума.

Видение будущего в Декларации

Опубликованный документ, подписанный сотнями экспертов, бывших чиновников и общественных деятелей, утверждает, что человечество находится на перепутье. Один путь, обозначенный как «гонка на замещение», предполагает постепенное вытеснение человека из сферы труда, а затем и из процесса принятия решений, с концентрацией власти в руках неподотчётных институтов и машин. Второй путь ведёт к развитию ИИ, который значительно расширяет человеческий потенциал.

Пять принципов и жёсткие ограничения

Второй сценарий опирается на пять ключевых принципов: сохранение контроля за человеком, предотвращение концентрации власти, защита человеческого опыта, сохранение индивидуальных свобод и привлечение компаний-разработчиков ИИ к юридической ответственности. Декларация содержит строгие положения, включая полный запрет на разработку сверхразума до достижения научного консенсуса относительно его безопасности и получения демократической поддержки. Также предусматриваются обязательные механизмы аварийного отключения для мощных систем и запрет на архитектуры, способные к самовоспроизведению, автономному самосовершенствованию или сопротивлению выключению.

Конфликт Пентагона и Anthropic

Выпуск декларации совпал с событиями, подчеркнувшими её актуальность. Министр обороны США Пит Хегсет назначил Anthropic, чей ИИ уже интегрирован в засекреченные военные платформы, «риском для цепочки поставок». Это произошло после того, как компания отказалась предоставить Пентагону неограниченный доступ к своей технологии. Подобный статус обычно присваивается фирмам, связанным с Китаем. Спустя несколько часов OpenAI заключила своё соглашение с Министерством обороны, которое, по мнению юристов, будет трудно эффективно исполнить. Эти события вскрыли высокую цену бездействия Конгресса в вопросах регулирования ИИ.

Как отметил Дин Болл, старший научный сотрудник Фонда американских инноваций, в комментарии для The New York Times, «это не просто спор о контракте. Это первый общенациональный диалог о контроле над системами ИИ».

Аналогия с фармацевтикой и фокус на безопасности детей

Тегмарк провёл понятную аналогию: «Нам не нужно беспокоиться о том, что фармацевтическая компания выпустит новый препарат, способный нанести массовый вред, до того как его безопасность будет подтверждена, поскольку FDA не допустит его выпуска без гарантий безопасности». Вашингтонские бюрократические войны редко создают общественное давление, способное изменить законодательство. По мнению Тегмарка, именно вопросы безопасности детей могут стать катализатором прорыва в сложившейся тупиковой ситуации. Декларация, к слову, призывает к обязательному предпродажному тестированию продуктов ИИ, особенно чат-ботов и компаньон-приложений для молодых пользователей, на предмет рисков, включающих усиление суицидальных наклонностей, обострение психических расстройств и эмоциональные манипуляции.

Расширение требований к тестированию

Тегмарк подчеркнул: «Если пожилой мужчина пишет 11-летнему ребёнку, притворяясь молодой девушкой, и пытается убедить его совершить самоубийство, этот мужчина может быть привлечён к уголовной ответственности. У нас уже есть законы, это незаконно. Тогда почему ситуация отличается, если это делает машина?» Он полагает, что после того как принцип предпродажного тестирования будет утверждён для детских продуктов, его сфера применения неизбежно расширится. «Люди начнут добавлять другие требования. Возможно, нам следует проверять, что [ИИ] не может помочь террористам создавать биооружие. Возможно, нам следует убедиться, что сверхразум не способен свергнуть правительство США».

Широкий спектр поддержки

Широта коалиции сама по себе является аргументом. Декларацию поддержали как Стив Бэннон, бывший советник Трампа, так и Сьюзан Райс, экс-советник по национальной безопасности и внешней политике при президенте Обаме. Среди подписантов также бывший председатель Объединенного комитета начальников штабов Майк Маллен и прогрессивные религиозные лидеры.

«Они все согласны в одном: они все люди», – говорит Тегмарк. «Если выбор сведётся к будущему для людей или будущему для машин, то, конечно, они будут на одной стороне».

Теги: #Anthropic, #ИИ, #Пентагон, #регулирование ИИ, #сверхразум, #Макс Тегмарк, #Декларация в защиту человечества