← Все новости

Ученые: ИИ стандартизирует мышление людей

• Категория: Искусственный интеллект • Автор: Екатерина Морозова • Проверил: Алексей Воронов • 13.03.2026 18:48

Искусственный интеллект, в частности чат-боты, может по-настоящему стандартизировать то, как мы пишем, говорим и даже мыслим. Если эта тенденция сохранится, мы рискуем столкнуться со снижением коллективной креативности и способности общества решать сложные проблемы. Исследователи предполагают, что решить эту потенциальную проблему можно, если значительно расширить языковое и культурное разнообразие данных, на которых обучаются модели, а также включить в них широкий спектр различных точек зрения.

Специалисты по информатике и психологии, авторы этого исследования, обращают внимание на то, что миллиарды пользователей по всему миру ежедневно обращаются к одним и тем же чат-ботам. Они используют их для написания текстов, поиска идей и выполнения самых разных рабочих задач. На практике это значит, что способы выражения мыслей постепенно унифицируются и становятся похожими друг на друга.

Унификация мышления

Живар Соурати из Университета Южной Калифорнии, первый автор исследования, объясняет эту динамику так: «Люди отличаются друг от друга тем, как они пишут, рассуждают и воспринимают мир. Когда все эти индивидуальные различия проходят через одни и те же языковые модели, стили мышления и выражения начинают унифицироваться».

По мнению учёных, когнитивное разнообразие — это исключительно важный фактор для коллективной креативности и способности любого сообщества находить нешаблонные решения. Однако, если использовать чат-боты для редактирования текстов или генерирования идей, это может постепенно снижать индивидуальность мыслительных процессов. Иными словами, люди начинают чувствовать меньшую творческую ответственность за тексты, которые они создают.

Проблема смещения данных

Исследователи также подчёркивают, что крупные языковые модели, на которых базируются чат-боты, обучаются на массивах данных, где доминируют языки и культурные нормы западных, образованных и экономически развитых обществ. Соответственно, ответы, которые выдают эти модели, часто отражают довольно узкий набор ценностей и мыслительных стратегий, а не всё богатство человеческого опыта.

Кроме того, взаимодействие с ИИ может влиять на сами стратегии рассуждения. Многие модели, например, используют «цепочку рассуждений» (chain-of-thought) — это пошаговое последовательное объяснение решения. Несмотря на то, что такой подход эффективен для определённых типов задач, он может постепенно вытеснять более интуитивные или абстрактные способы мышления, которые порой оказываются значительно более эффективными.

Инициатива от человека к алгоритму

Ещё один аспект проблемы заключается в характере взаимодействия пользователей с ИИ. Часто люди выбирают предложенные моделью варианты текста, которые, проще говоря, кажутся «достаточно хорошими», вместо того чтобы самостоятельно формулировать свои идеи. Со временем это может привести к тому, что инициатива в творческом процессе будет смещаться от человека к алгоритму. Интересно, что недавние исследования уже показали, как автоподсказки ИИ при написании текстов незаметно меняют убеждения самих пользователей.

Авторы исследования полагают, что разработчикам необходимо целенаправленно расширять обучающие выборки, включая в них больше языкового и культурного разнообразия, а также учитывая самые разные точки зрения и стили мышления. По их мнению, только такие модели смогут по-настоящему поддерживать коллективный интеллект общества и сохранять нашу способность генерировать по-настоящему новые идеи.

Теги: #искусственный интеллект, #языковые модели, #ИИ, #чат-боты, #креативность, #мышление людей, #когнитивное разнообразие