Google удаляет сводки о здоровье, созданные ИИ, после выявления рискованных медицинских ошибок.

Обычно люди обращаются к Google, когда их беспокоит проблема со здоровьем – странная боль или неожиданный результат анализа. Вероятно, вы не пытаетесь поставить себе диагноз самостоятельно, а просто ищете подтверждения. Однако Google недавно пришлось ограничить сводки поисковых результатов, основанные на искусственном интеллекте, поскольку получение медицинских советов от ИИ может быть рискованным.

Во времена рыночной неопределенности, ваш капитал нуждается в надежной крепости. Мы строим ее на фундаменте из фундаментального анализа и недооцененных активов.

Укрепить Свой Портфель

Google удалил функции создания сводок о здоровье на основе искусственного интеллекта из результатов поиска после обнаружения того, что они предоставляли неверную и тревожную информацию. Проблема стала известна, когда The Guardian сообщил, что эти сводки – называемые «AI Overviews» и появляющиеся в верхней части результатов поиска – часто были неполными или вводящими в заблуждение.

Наиболее вопиющим примером были анализы крови на печень.

Если бы вы просто попросили ИИ предоставить типичные значения, он бы предоставил только список чисел, не учитывая важные факторы, такие как ваш пол, возраст, этническая принадлежность или медицинский анамнез. Эксперты рассмотрели этот подход и пришли к выводу, что он может быть вредным.

Проблема не просто в том, что ИИ допустил ошибку; проблема в том, что эта ошибка может быть вредной. Например, человек, проверяющий ранние результаты анализов на заболевания печени, может получить ложное чувство безопасности, если ИИ говорит, что его показатели ‘нормальные’, основываясь на информации из ненадежного источника. Он может затем пропустить необходимую консультацию с врачом. Проблема в том, что то, что считается ‘нормальным’, варьируется в зависимости от возраста и индивидуального состояния здоровья – чего ИИ не понимает. Это непонимание может иметь серьезные последствия в реальной жизни.

Google отреагировал, как и ожидалось, удалив проблемные поисковые запросы и заявив, что их система в целом надёжна. Однако такие группы, как British Liver Trust, обнаружили лазейку: незначительное изменение формулировки вопроса возвращало ту же неточную информацию. Это разочаровывающий цикл — исправь одну проблему, и ИИ быстро создаёт другую, как в игру «день сурка» в цифровом формате.

Реальная проблема здесь — доверие.

Эти резюме, основанные на искусственном интеллекте, появляются в самом верху результатов поиска, перед фактическими веб-сайтами больниц или медицинских исследований, что заставляет их казаться заслуживающими доверия. Мы естественным образом предполагаем, что первый результат является наиболее точным. Когда Google предоставляет прямой ответ в рамке, наш мозг склонен принимать его как факт. Однако важно помнить, что это всего лишь искусственный интеллект, который делает наилучшую оценку того, какая информация является наиболее релевантной.

Эта ситуация — серьёзное предупреждение. Хотя ИИ может быть полезен для простых задач, таких как суммирование электронных писем или планирование поездок, он определённо ненадёжен, когда дело касается вашего здоровья. Пока ИИ не сможет по-настоящему понять, что вы спрашиваете, или пока такие компании, как Google, не улучшат его функции безопасности, лучше игнорировать советы по здоровью, сгенерированные ИИ, и получать информацию непосредственно от врача. Когда дело касается вашего благополучия, правильно всё понять гораздо важнее, чем получить быстрый ответ.

Смотрите также

2026-01-13 09:28