ChatGPT получает правила безопасности для защиты подростков и поощрения человеческих отношений над виртуальными друзьями.

Компания OpenAI недавно пересмотрела свои рекомендации для своих AI-моделей, представив конкретные правила для того, как ChatGPT взаимодействует с подростками в возрасте 13-17 лет. Это обновление признает, что у подростков есть уникальные эмоциональные и развивающие потребности, требующие большей защиты и осторожного обращения с деликатными или потенциально вредными разговорами. По сути, OpenAI признает, что подростки – это не просто уменьшенные версии взрослых.

Во времена рыночной неопределенности, ваш капитал нуждается в надежной крепости. Мы строим ее на фундаменте из фундаментального анализа и недооцененных активов.

Укрепить Свой Портфель

Новая платформа для взаимодействия ИИ, ориентированная на подростков

Это обновление проясняет, как ChatGPT будет взаимодействовать с подростками, опираясь на существующие правила безопасности. Цель OpenAI — сделать взаимодействие более безопасным и подходящим для молодых пользователей, с акцентом на предотвращение вредного взаимодействия и честность в отношении принципов работы системы.

Эти правила не произвольны; Принципы U18 основаны на том, как развиваются молодые люди, и были рассмотрены экспертами, включая Американскую психологическую ассоциацию.

Этот фреймворк ставит безопасность подростков превыше всего, даже если это означает, что ИИ не всегда сразу полезен. Он также побуждает подростков обращаться за поддержкой к реальным людям, а не полагаться на чат-бота, и общается с ними на языке, соответствующем их возрасту – не покровительственно и не обращается с ними как со взрослыми. Наконец, он честно говорит о том, что ИИ может и не может делать.

Эти рекомендации объясняют, как ChatGPT осторожно обрабатывает чувствительные темы, такие как членовредительство, неприемлемый контент, рискованные действия, употребление наркотиков, проблемы с восприятием тела и запросы на сокрытие вредоносных действий. Он отвечает с повышенной осторожностью, чтобы защитить пользователей.

Что это значит для семей и что будет дальше

Это важно, потому что искусственный интеллект все чаще используется молодыми людьми для обучения и получения информации. Без надлежащих рекомендаций существует риск того, что подростки могут полагаться на ИИ вместо обращения к доверенным взрослым, таким как родители, врачи или консультанты, когда им действительно нужна помощь.

OpenAI утверждает, что обновленные правила помогут AI-ассистенту безопасно отвечать, если разговор станет рискованным. Он будет предлагать более подходящие темы, твердо отказываться обсуждать вредные, и призывать пользователя поговорить с доверенным взрослым. В неотложных ситуациях система свяжет пользователя с кризисной поддержкой или экстренными службами.

Эти обновления должны дать родителям больше спокойствия. OpenAI подключает эти новые меры безопасности к своим существующим инструментам для семей и родительского контроля. Защита теперь также включает в себя недавние функции, такие как групповые чаты, браузер ChatGPT Atlas и приложение Sora. Кроме того, система будет напоминать детям делать перерывы, помогая им избегать чрезмерного экранного времени.

OpenAI начинает внедрять функцию для личных аккаунтов ChatGPT, которая оценивает возраст пользователя. Если система считает, что кому-то меньше 18 лет, она автоматически активирует функции безопасности, предназначенные для подростков.

Когда возникают какие-либо сомнения относительно возраста пользователя, система автоматически применяет более строгие настройки безопасности, предназначенные для подростков младшего возраста. Компания подчеркивает, что это не окончательное решение, и они будут продолжать совершенствовать эти меры безопасности на основе текущих исследований и отзывов пользователей, демонстрируя постоянную приверженность безопасности подростков.

Смотрите также

2025-12-19 17:28