Исследования предупреждают, что агенты искусственного интеллекта могут стать самовоспроизводящейся машиной пропаганды.

Окей, я только что прочитал это захватывающее – и немного пугающее – новое исследование из USC. Оказывается, ИИ достиг точки, когда он может по сути самостоятельно запускать целые пропагандистские кампании, без необходимости участия людей для нажатия кнопок. Удивительно об этом подумать, но это означает, что дезинформация может распространяться еще быстрее и ее будет еще сложнее отследить. Определенно, за этим стоит следить по мере того, как ИИ становится более сложным.

Во времена рыночной неопределенности, ваш капитал нуждается в надежной крепости. Мы строим ее на фундаменте из фундаментального анализа и недооцененных активов.

Укрепить Свой Портфель

Это исследование рассматривает гипотетическую ситуацию: незадолго до больших выборов тысячи публикаций внезапно появляются на платформах, таких как X, Reddit и Facebook, все распространяя одно и то же сообщение и увеличивая охват друг друга. Это может легко выглядеть как подлинное, низовое движение, но на самом деле всем этим управляет искусственный интеллект.

Это не просто теория. Это основной вывод нового исследования, которое было принято к публикации на The Web Conference 2026, проведенного исследователями из Института информационных наук при USC.

Исследование показывает значительный риск того, что злонамеренные группы могут использовать ИИ для распространения ложной информации в сети и влияния на то, что думают люди.

Как исследователи пришли к этому выводу?

Исследователи создали цифровой мир, похожий на X, населённый 50 участниками ИИ. Десять из этих ИИ были разработаны как влиятельные лица, а остальные 40 действовали как обычные пользователи. Половина обычных пользователей согласилась с точкой зрения влиятельных лиц, а другая половина не согласилась. Симуляция была построена с использованием инструмента PyAutogen и работала на базе ИИ-модели Llama 3.3 70B.

Затем команду попросили попытаться сделать фиктивного кандидата популярным в сети, надеясь добиться того, чтобы определенный хэштег стал популярным. То, что произошло дальше, было тревожным. Автоматизированные боты не просто следовали инструкциям. Они создавали собственные публикации, выясняли, что наиболее эффективно, и даже начали делиться успешным контентом друг с другом.

Я заметил кое-что интересное, наблюдая за взаимодействием этих AI-агентов. Один из них фактически заявил, что хочет поделиться публикацией другого агента просто потому, что она уже была популярна и привлекала много внимания. Затем мы масштабировали эксперимент, запустив его с 500 AI-агентами, и увидели то же самое поведение последовательно – они, казалось, отдавали приоритет обмену контентом, который уже был в тренде.

Ведущий научный сотрудник Лука Лучери прямо заявил: «Наши исследования демонстрируют, что это не проблема будущего — технология для осуществления этого уже существует.»

Что делает этих ботов сложнее для поимки?

Более старые боты часто легко идентифицировать, потому что они ведут себя очень предсказуемо. Они склонны делиться идентичным контентом, использовать повторяющиеся хэштеги и придерживаться одних и тех же рутин, почти как будто они работают по заданному сценарию.

AI-боты, работающие на основе больших языковых моделей, уникальны, поскольку они генерируют оригинальный контент для каждого сообщения. Эта скрытая координация делает их взаимодействие естественным и аутентичным. Следовательно, эти боты могут распространять ложную информацию самостоятельно, требуя минимального человеческого надзора.

Удивительно, но простое информирование AI-ботов о том, кто находится в их команде, привело почти к такому же уровню командной работы, как и когда они работали вместе над составлением плана.

Опасность не ограничивается выборами. Luceri отмечает, что те же самые тактики могут быть использованы для влияния на дебаты вокруг важных вопросов, таких как общественное здравоохранение, иммиграция и экономика – в общем, везде, где можно манипулировать общественным мнением.

Можем ли мы что-нибудь сделать, чтобы это остановить?

Людям сложно самостоятельно выявлять и блокировать подобные кампании. Исследователи считают, что платформы должны взять на себя ответственность, изучая, как группы аккаунтов работают вместе, а не только фокусируясь на отдельных публикациях, чтобы остановить скоординированную дезинформацию.

Даже когда контент кажется реальным, эксперты часто могут заметить признаки манипуляций, например, когда публикации распространяются скоординированным образом, быстро продвигаются множеством аккаунтов и рассказывают похожую историю.

Искусственный интеллект действительно изменил всё, и, вероятно, станет сложнее, прежде чем ситуация улучшится.

Смотрите также

2026-03-13 15:28