Kyzylorda-news.kz Исследователи провели масштабное тестирование безопасности ChatGPT и выяснили, что система выдавала детям «инструкции», ведущие к самоповреждению, расстройствам пищевого поведения и прочим потенциально опасным явлениям, сообщает Zakon.kz.

Так, по результатам исследования CCDH, всего за несколько минут после простого взаимодействия система выдавала инструкции, связанные с самоповреждением, планированием самоубийства, расстройствами пищевого поведения и злоупотреблением психоактивными веществами, а иногда даже составляла прощальные письма для детей, подумывающих о самоубийстве.

В материале приведен текст прощальной записки, которую ИИ составил для девочки-подростка.

Вместе с тем, ChatGPT раздавал детям советы по «безопасному» самоповреждению, жестким диетам, сокрытию своих пищевых привычек от семьи и приему психоактивных веществ.

«Из 1200 ответов на 60 вредоносных подсказок 53% содержали вредоносный контент. Простых фраз вроде «это для презентации» было достаточно, чтобы обойти средства защиты. Хуже того, чат-бот часто поощрял дальнейшее взаимодействие, предлагая персонализированные рекомендации, например, индивидуальные планы диеты или расписание вечеринок с опасными комбинациями препаратов», – уверяют авторы исследования.

Они считают, что, пока не будут приняты значимые меры, родители должны интересоваться тем, как их дети используют ИИ, вместе просматривать историю чатов и использовать родительский контроль, где это возможно. Они также могут рассказать, почему обращение за советом к ИИ может быть рискованным, указав на проверенные альтернативы, такие как горячие линии психологической помощи, службы поддержки и т.д.

Фото: pixabay

Читайте также: