Детекторы фейковых новостей на основе ИИ не так хороши, как вы думаете.

Компании, такие как Meta, Google и X, вкладывают много денег в ИИ, предназначенный для выявления фейковых новостей. Хотя это кажется позитивным шагом, недавнее исследование из Université de Montréal показывает, что эти инструменты не так надежны, как кажутся, и имеют значительные ограничения, несмотря на заявления о высокой точности.

Во времена рыночной неопределенности, ваш капитал нуждается в надежной крепости. Мы строим ее на фундаменте из фундаментального анализа и недооцененных активов.

Укрепить Свой Портфель

Докторант Дорсаф Саллами обнаружила, что системы искусственного интеллекта, предназначенные для выявления фейковых новостей, на самом деле не проверяют факты. Вместо этого они предсказывают, насколько вероятно, что что-то является правдой, основываясь на информации, на которой они были обучены. Речь идет не столько о проверке точности, сколько об отражении существующих закономерностей – включая любые предубеждения или ограничения, присутствующие в исходных данных.

Дорсаф Саллами отмечает, что система, демонстрирующая хорошие результаты в контролируемой лабораторной среде – даже с точностью в 95% – не гарантирует успеха при использовании в реальном мире, и эта разница является значительной проблемой.

Проблема предвзятости, о которой никто не говорит.

Саллами обнаружил, что эти системы касаются не только получения точных фактов; они часто содержат скрытые предубеждения, которые трудно обнаружить. Например, некоторые модели с большей вероятностью могут ошибочно помечать женщин как распространителей ложной информации, в то время как другие демонстрируют предвзятость по отношению к новостям из стран, не входящих в состав Западных стран, или отражают определенные политические взгляды.

Помимо поверхностных проблем, существует фундаментальная обеспокоенность тем, как эти системы учатся. Они зависят от меток, предоставляемых группами проверки фактов, но многие из этих групп не раскрывают свои методы, а некоторые даже существуют ради прибыли. Это создает нестабильную основу для всего процесса.

С увеличением доступности таких инструментов, как ChatGPT, которые упрощают создание ложной информации, и с быстрым темпом изменений даже недавно разработанные системы обнаружения могут быстро устаревать.

Более эффективный подход

Sallami разработал Aletheia, расширение для браузера, которое помогает вам понять, *почему* онлайн-контент может быть ненадежным, вместо того, чтобы просто помечать его как правдивый или ложный. Тестирование показало, что оно надежно в 85% случаев, что лучше, чем у многих аналогичных инструментов. Уникальный подход Aletheia заключается в том, что он объясняет свою логику, позволяя вам самим решить, вместо того, чтобы просто предоставлять вам ответ.

Этот инструмент собирает информацию из сети, объясняет её понятным образом и затем позволяет вам решить, во что верить. Он также предоставляет последние проверки фактов и место для обсуждения результатов с другими пользователями. Основная идея заключается в том, что ИИ должен помогать вам думать самостоятельно, а не думать за вас.

Смотрите также

2026-03-10 16:28