Группа исследователей ИИ из Berkeley, Harvard, Oxford, Cambridge и Yale опублико…

Группа исследователей ИИ из Berkeley, Harvard, Oxford, Cambridge и Yale опубликовала в Science предупреждение о том, как технология может влиять на мнения избирателей и в промышленных масштабах быть задействована к выборам в США 2028 года. Речь об «ИИ-роях» — сетях ИИ-агентов, которые маскируются под людей в соцсетях и создают иллюзию общественного консенсуса. Среди авторов — лауреат Нобелевской премии мира Мария Ресса и бывший цифровой министр Тайваня Одри Тан.
В Тайване ИИ-боты уже работают внедрены во многие известные соцсети. Они не продвигают прямую пропаганду, а создают информационную перегрузку и мягко подталкивают молодых избирателей к нейтралитету по теме Китая. Не к лояльности или протесту, а именно к усталости и безразличию.
Технически всё готово. Агентный ИИ умеет планировать действия, менять тон общения, публиковать контент нерегулярно и координироваться между платформами. По словам исследователей, небольшую армию ботов сегодня можно собрать за несколько часов с помощью vibe-кодинга.
Пока сдерживающим фактором остаётся масштаб внедрения. В 2024 году, несмотря на громкие прогнозы, ИИ-микротаргетинг не стал массовым инструментом на выборах. По оценкам исследователей, более 70% пропагандистов и политтехнологов всё ещё используют старые, проверенные методы — они дешевле, понятнее и несут меньше рисков. Новые инструменты пока тестируют, а не запускают на полную, но это скорее дело времени и мотивации.
На примере последних выборов в США уже видно, какой эффект даёт грамотное распределение трафика в соцсетях вроде TikTok. По данным исследователей из NYU, в пиковые периоды до 35% политического контента в TikTok продвигалось через алгоритмическое усиление, а не органический интерес пользователей. Аналитики отмечали, что даже небольшие смещения в рекомендациях позволяли за считанные дни формировать устойчивые нарративы у молодой аудитории, слабо вовлечённой в традиционные медиа.
Добавьте к этому ИИ — и получается гремучая смесь. Автоматическая генерация видео, комментариев и реакций позволяет масштабировать влияние в десятки раз без пропорционального роста затрат. По оценке бывших сотрудников Google, ИИ может снизить стоимость информационной кампании на 80%, одновременно увеличив скорость тестирования месседжей и адаптацию под разные аудитории. В результате влияние перестаёт быть точечным и становится фоновым — когда пользователь не видит агитации, но меняет отношение к теме. Именно этот эффект аналитики считают главным риском выборов следующего цикла.
Для защиты от таких манипуляций авторы предлагают внедрять сканеры роев, водяные знаки для ИИ-контента. Проблема в том, что всё это требует сотрудничества платформ, которого пока нет. Поэтому 2028 год может оказаться как слишком далёким, так и пугающе близким — в зависимости от того, кто начнёт масштабировать такие технологии уже сейчас.

Comments

Թողնել պատասխան

Ձեր էլ-փոստի հասցեն չի հրապարակվելու։ Պարտադիր դաշտերը նշված են *-ով