Спустя чуть более года после отказа от услуг сторонних фактчекеров и существенного сокращения объемов превентивной модерации контента, Meta анонсировала очередной виток трансформации своих алгоритмов. Стратегия компании заключается в переходе на автоматизированные системы на базе искусственного интеллекта, что повлечет за собой значительное сокращение штата модераторов-людей. Процесс внедрения новых инструментов растянется на несколько лет и, по заявлению представителей компании, позволит повысить скорость и эффективность выявления нарушений.
Переход к автоматизации
Meta пока не раскрывает конкретных данных о масштабах предстоящих сокращений среди контрактных сотрудников, однако известно, что их численность по всему миру исчисляется тысячами. В текущих условиях эти специалисты занимаются верификацией контента, который был помечен ИИ или попал в отчеты пользователей. В будущем компания планирует сохранить участие людей в процессах, требующих критических решений, а также в обучении нейросетей. Если коротко, эксперты будут отвечать за настройку, контроль и оценку ИИ-систем, принимая решения по наиболее сложным и значимым кейсам — например, при рассмотрении апелляций на блокировку учетных записей или передаче материалов в правоохранительные органы.
Технологический стек и масштабируемость
Компания уже некоторое время тестирует системы на базе больших языковых моделей (LLM) для модерации данных, отмечая положительные результаты. Одно из ключевых преимуществ такого подхода — кратное расширение языкового охвата: алгоритмы смогут обрабатывать контент на языках, которыми владеет 98% пользователей сети, в то время как нынешние возможности ограничены поддержкой 80 языков. На практике это значит, что система станет универсальнее в глобальном масштабе.
Риски и пользовательский опыт
Хотя в Meta утверждают, что внутренние правила сообщества остаются прежними, смена парадигмы модерации неизбежно отразится на восприятии политики компании пользователями. На данный момент алгоритмы уже выполняют значительную часть работы, и многие пользователи часто жалуются на ошибки автоматики, а также на невозможность достучаться до живого оператора при подаче апелляции. В свою очередь, Meta заявляет, что применение новых систем позволит сократить количество «ошибок чрезмерного контроля» (over-enforcement) и при этом эффективнее выявлять наиболее серьезные нарушения. Очевидным стимулом для компании также является значительная экономия затрат на оплату труда подрядчиков.
Цифровой ассистент поддержки
В краткосрочной перспективе компания запускает ИИ-помощника для технической поддержки, который интегрируется в приложения Facebook и Instagram. Бот будет автоматизировать процесс подачи жалоб на контент, помогать в управлении настройками аккаунта, сбросе паролей и прохождении процедуры апелляции. Также планируется, что чат-бот начнет помогать пользователям, потерявшим доступ к своим аккаунтам — сначала эта функция будет доступна для ограниченного числа кейсов в США и Канаде.
*Компания Meta признана экстремистской организацией и запрещена в РФ