Исследовательская группа из США и Великобритании представила результаты анализа того, как взаимодействие с большими языковыми моделями влияет на когнитивные процессы человека и его вовлеченность в интеллектуальный труд. Общий вывод заключается в том, что кратковременная эффективность, достигаемая за счет делегирования задач алгоритмам, сопряжена с накопительными рисками для самостоятельного мыслительного потенциала.
Методология и ход экспериментов
Основная часть работы базировалась на серии контролируемых тестов. В ходе первого этапа около 350 добровольцев решали математические задачи, при этом часть испытуемых получила доступ к чат-боту на базе GPT-5, выдававшему готовые решения. В последующих итерациях охват был расширен до 670 участников, а спектр задач дополнен заданиями на понимание и анализ текстов.Экспериментаторы зафиксировали устойчивую закономерность: после того как инструмент ИИ принудительно отключался, производительность пользователей, ранее полагавшихся на делегирование, резко падала. Более того, проявлялось снижение мотивации — участники, лишенные подсказок, склонны были чаще отказываться от решения задач по сравнению с контрольной группой, изначально работавшей автономно. Эффект наблюдался даже после десятиминутного взаимодействия с нейросетью, причем специфика задач — будь то вычисления или лингвистический анализ — не меняла общей картины.
Когнитивные издержки и «эффект варящейся лягушки»
Рачит Дубей, доцент Калифорнийского университета в Лос-Анджелесе, объясняет феномен не просто снижением точности результатов, а базовым изменением моделей поведения пользователей. Проще говоря, ИИ формирует паттерн зависимости: когда ИИ-ассистент перестает быть доступен, пользователь теряет не только опору в виде ответов, но и внутреннюю готовность прикладывать самостоятельные усилия для преодоления трудностей.В работе проводится аналогия с «эффектом варящейся лягушки», описывающая постепенное, незаметное для индивида снижение когнитивного тонуса. Исследователи предупреждают, что, если привычка перекладывать ментальную нагрузку на ИИ станет повсеместной, последствия для процесса непрерывного обучения могут стать необратимыми. Эти эффекты имеют накопительный характер и способны радикально изменить уровень академической и профессиональной экспертизы в долгосрочной перспективе.
Влияние стратегии использования ИИ
Несмотря на негативные прогнозы, авторы отмечают критическую разницу в подходах к работе с нейросетями. Если пользователь запрашивает у модели пошаговые объяснения и логические обоснования, то это снижает деградацию навыков по сравнению с прямым копированием готовых ответов. Тем не менее, фундаментальный вопрос о трансформации самовосприятия остается открытым. Ученые опасаются, что тотальная автоматизация интеллектуальной деятельности неизбежно приведет к эрозии уверенности в собственных способностях, ставя под удар профессиональную самостоятельность в будущем.