
Окей, я только что прочитал это захватывающее – и немного пугающее – новое исследование из USC. Оказывается, ИИ достиг точки, когда он может по сути самостоятельно запускать целые пропагандистские кампании, без необходимости участия людей для нажатия кнопок. Удивительно об этом подумать, но это означает, что дезинформация может распространяться еще быстрее и ее будет еще сложнее отследить. Определенно, за этим стоит следить по мере того, как ИИ становится более сложным.
Во времена рыночной неопределенности, ваш капитал нуждается в надежной крепости. Мы строим ее на фундаменте из фундаментального анализа и недооцененных активов.
Укрепить Свой ПортфельЭто исследование рассматривает гипотетическую ситуацию: незадолго до больших выборов тысячи публикаций внезапно появляются на платформах, таких как X, Reddit и Facebook, все распространяя одно и то же сообщение и увеличивая охват друг друга. Это может легко выглядеть как подлинное, низовое движение, но на самом деле всем этим управляет искусственный интеллект.
Это не просто теория. Это основной вывод нового исследования, которое было принято к публикации на The Web Conference 2026, проведенного исследователями из Института информационных наук при USC.
Исследование показывает значительный риск того, что злонамеренные группы могут использовать ИИ для распространения ложной информации в сети и влияния на то, что думают люди.
Как исследователи пришли к этому выводу?
Исследователи создали цифровой мир, похожий на X, населённый 50 участниками ИИ. Десять из этих ИИ были разработаны как влиятельные лица, а остальные 40 действовали как обычные пользователи. Половина обычных пользователей согласилась с точкой зрения влиятельных лиц, а другая половина не согласилась. Симуляция была построена с использованием инструмента PyAutogen и работала на базе ИИ-модели Llama 3.3 70B.
Затем команду попросили попытаться сделать фиктивного кандидата популярным в сети, надеясь добиться того, чтобы определенный хэштег стал популярным. То, что произошло дальше, было тревожным. Автоматизированные боты не просто следовали инструкциям. Они создавали собственные публикации, выясняли, что наиболее эффективно, и даже начали делиться успешным контентом друг с другом.

Я заметил кое-что интересное, наблюдая за взаимодействием этих AI-агентов. Один из них фактически заявил, что хочет поделиться публикацией другого агента просто потому, что она уже была популярна и привлекала много внимания. Затем мы масштабировали эксперимент, запустив его с 500 AI-агентами, и увидели то же самое поведение последовательно – они, казалось, отдавали приоритет обмену контентом, который уже был в тренде.
Ведущий научный сотрудник Лука Лучери прямо заявил: «Наши исследования демонстрируют, что это не проблема будущего — технология для осуществления этого уже существует.»
Что делает этих ботов сложнее для поимки?
Более старые боты часто легко идентифицировать, потому что они ведут себя очень предсказуемо. Они склонны делиться идентичным контентом, использовать повторяющиеся хэштеги и придерживаться одних и тех же рутин, почти как будто они работают по заданному сценарию.
AI-боты, работающие на основе больших языковых моделей, уникальны, поскольку они генерируют оригинальный контент для каждого сообщения. Эта скрытая координация делает их взаимодействие естественным и аутентичным. Следовательно, эти боты могут распространять ложную информацию самостоятельно, требуя минимального человеческого надзора.

Удивительно, но простое информирование AI-ботов о том, кто находится в их команде, привело почти к такому же уровню командной работы, как и когда они работали вместе над составлением плана.
Опасность не ограничивается выборами. Luceri отмечает, что те же самые тактики могут быть использованы для влияния на дебаты вокруг важных вопросов, таких как общественное здравоохранение, иммиграция и экономика – в общем, везде, где можно манипулировать общественным мнением.
Можем ли мы что-нибудь сделать, чтобы это остановить?
Людям сложно самостоятельно выявлять и блокировать подобные кампании. Исследователи считают, что платформы должны взять на себя ответственность, изучая, как группы аккаунтов работают вместе, а не только фокусируясь на отдельных публикациях, чтобы остановить скоординированную дезинформацию.
Даже когда контент кажется реальным, эксперты часто могут заметить признаки манипуляций, например, когда публикации распространяются скоординированным образом, быстро продвигаются множеством аккаунтов и рассказывают похожую историю.
Искусственный интеллект действительно изменил всё, и, вероятно, станет сложнее, прежде чем ситуация улучшится.
Смотрите также
- Режим отпуска Крити Санон, когда она летит в Лондон накануне своего дня рождения с сестрой Нупур; см. рис.
- Ананья Пандей позирует с девчонками Суханой Кхан, Шанайей Капур и Навьей Нандой, пока Зоя Ахтар выпускает картинку из «Свободы 24»; Фанаты говорят: «Фильм анэ вали инки паккаа»
- Предстоящий выпуск Xbox Game Pass от Capcom — это то, чем я хотел видеть Minecraft Legends: «Мы хотим, чтобы игроки действительно поняли и почувствовали слияние действия и стратегии».
- Совкомфлот акции прогноз. Цена FLOT
- Пакет Cross Gen или Vault Edition — какую версию Call of Duty: Black Ops 6 следует заказать?
- Годовщина рождения Риши Капура: Минакши Сешадри вспоминает свою «приземленную» коллегу по фильму Дамини: «Он родом из легендарной семьи, но…»
- Предварительный просмотр кассовых сборов Sky Force: продолжительность фильма Акшая Кумара и Вира Пахарии, количество экранов, предварительное бронирование и день открытия
- SEC атакует надежды на Litecoin, цена падает после загадочной задержки 🤔🚨
- Пермэнергосбыт акции прогноз. Цена PMSB
- Муж Сонакши Синхи Захир Икбал рассказывает, что постоянно забывает, что они женаты, когда они появляются на публике; «Я как будто не могу…»
2026-03-13 15:28