Мэтью Принс, глава Cloudflare, на конференции SXSW в Остине обозначил грядущую трансформацию интернет-трафика. Согласно его прогнозу, к 2027 году объемы запросов от автоматизированных систем (ботов) превысят активность живых пользователей. Это изменение прямо связано с развитием генеративного ИИ, который требует колоссальных объемов данных для обучения и работы.
Масштабирование нагрузки на веб-инфраструктуру
Природа взаимодействия с сетью меняется кардинально. Если человек, выбирая цифровую камеру, посещает в среднем пять специализированных ресурсов, то ИИ-агент для выполнения аналогичной задачи может просканировать до пяти тысяч сайтов. Проще говоря, интенсивность обращения к серверным мощностям возрастает кратно. Для владельцев веб-сайтов это означает резкий рост нагрузки, которую необходимо учитывать при проектировании архитектуры и масштабировании инфраструктуры.
Ранее доля ботов в общем интернет-трафике составляла около 20%. Значительную часть этого объема генерировал поисковый робот Google, остальные же боты преимущественно относились к вредоносному ПО. Сейчас ситуация иная: генеративные модели демонстрируют «неутолимую» потребность в информации, что превращает парсинг данных в непрерывный процесс. Этот тренд, в отличие от всплеска трафика во время пандемии, не имеет признаков стабилизации. Мы наблюдаем долгосрочный рост потребления ресурсов, который будет только ускоряться.
Технологические вызовы и новые подходы
Такой сценарий требует переосмысления сетевых технологий. Принс предлагает внедрять концепцию динамических песочниц (sandboxes) для ИИ-агентов. На практике это значит, что при запросе пользователя, например, на планирование отпуска, система должна мгновенно развертывать изолированную среду для выполнения конкретной задачи и завершать её работу сразу после получения результата. По оценкам эксперта, в недалеком будущем счет таких ежесекундно создаваемых песочниц пойдет на миллионы.
Реализация подобной модели потребует колоссальных мощностей дата-центров. Постоянное увеличение нагрузки заставляет бизнес искать способы защиты веб-ресурсов от избыточных запросов. Cloudflare, чья инфраструктура обслуживает пятую часть всех сайтов сети, уже предоставляет инструменты для фильтрации нежелательного бот-трафика. Это позволяет владельцам веб-ресурсов контролировать, кто имеет право обращаться к их данным, обеспечивая при этом высокую доступность и производительность сайтов.
ИИ как фундаментальный сдвиг платформы
Мэтью Принс сравнивает текущую ситуацию с переходом от десктопных компьютеров к мобильным устройствам. По его оценке, развитие ИИ — это еще один глобальный сдвиг платформы, полностью меняющий привычные способы потребления контента. Инфраструктура интернета сейчас находится в точке трансформации, где способность систем адаптироваться под запросы автономных агентов станет определяющим фактором выживания для большинства онлайн-ресурсов.