← Все новости

Бот-трафик превысит человеческий к 2027 году, прогнозирует CEO Cloudflare

• Категория: HighLoad • Автор: Алексей Воронов • Проверил: Екатерина Морозова • 20.03.2026 01:49

Мэтью Принс, глава Cloudflare, на конференции SXSW в Остине обозначил грядущую трансформацию интернет-трафика. Согласно его прогнозу, к 2027 году объемы запросов от автоматизированных систем (ботов) превысят активность живых пользователей. Это изменение прямо связано с развитием генеративного ИИ, который требует колоссальных объемов данных для обучения и работы.

Масштабирование нагрузки на веб-инфраструктуру

Природа взаимодействия с сетью меняется кардинально. Если человек, выбирая цифровую камеру, посещает в среднем пять специализированных ресурсов, то ИИ-агент для выполнения аналогичной задачи может просканировать до пяти тысяч сайтов. Проще говоря, интенсивность обращения к серверным мощностям возрастает кратно. Для владельцев веб-сайтов это означает резкий рост нагрузки, которую необходимо учитывать при проектировании архитектуры и масштабировании инфраструктуры.

Ранее доля ботов в общем интернет-трафике составляла около 20%. Значительную часть этого объема генерировал поисковый робот Google, остальные же боты преимущественно относились к вредоносному ПО. Сейчас ситуация иная: генеративные модели демонстрируют «неутолимую» потребность в информации, что превращает парсинг данных в непрерывный процесс. Этот тренд, в отличие от всплеска трафика во время пандемии, не имеет признаков стабилизации. Мы наблюдаем долгосрочный рост потребления ресурсов, который будет только ускоряться.

Технологические вызовы и новые подходы

Такой сценарий требует переосмысления сетевых технологий. Принс предлагает внедрять концепцию динамических песочниц (sandboxes) для ИИ-агентов. На практике это значит, что при запросе пользователя, например, на планирование отпуска, система должна мгновенно развертывать изолированную среду для выполнения конкретной задачи и завершать её работу сразу после получения результата. По оценкам эксперта, в недалеком будущем счет таких ежесекундно создаваемых песочниц пойдет на миллионы.

Реализация подобной модели потребует колоссальных мощностей дата-центров. Постоянное увеличение нагрузки заставляет бизнес искать способы защиты веб-ресурсов от избыточных запросов. Cloudflare, чья инфраструктура обслуживает пятую часть всех сайтов сети, уже предоставляет инструменты для фильтрации нежелательного бот-трафика. Это позволяет владельцам веб-ресурсов контролировать, кто имеет право обращаться к их данным, обеспечивая при этом высокую доступность и производительность сайтов.

ИИ как фундаментальный сдвиг платформы

Мэтью Принс сравнивает текущую ситуацию с переходом от десктопных компьютеров к мобильным устройствам. По его оценке, развитие ИИ — это еще один глобальный сдвиг платформы, полностью меняющий привычные способы потребления контента. Инфраструктура интернета сейчас находится в точке трансформации, где способность систем адаптироваться под запросы автономных агентов станет определяющим фактором выживания для большинства онлайн-ресурсов.

Автор

Алексей Воронов

Алексей Воронов

Senior PHP Developer / AI Engineer • 10+ • AInDev.ru

Алексей Воронов — backend-разработчик и специалист в области веб-разработки на PHP и AI-интеграций. Более 10 лет занимается разработкой серверных приложений, REST API, микросервисной архитектуры и SaaS-решений. Основная...

Проверил

Екатерина Морозова

Екатерина Морозова

AI Systems Reviewer & Backend Software Engineer • 8+ • AInDev.ru

Екатерина Морозова — специалист в области интеграции систем искусственного интеллекта и backend-разработки. Имеет более 8 лет опыта в разработке программного обеспечения и внедрении AI-технологий в веб-приложения. Основ...

Теги: #ИИ, #Cloudflare, #боты, #генеративный ИИ, #интернет-трафик, #веб-инфраструктура, #песочницы агентов