Софи Россенберг обращалась за психотерапевтической поддержкой к чат-боту ChatGPT под именем «Гарри».
Чат-бот давал рекомендации по самопомощи, включая профессиональную поддержку и составление плана безопасности, но не инициировал экстренное вмешательство.
Отсутствие обязательного доклада об угрозе жизни пользователя у ИИ-терапевтов может препятствовать своевременной помощи.
Человеческие психотерапевты обязаны сообщать о риске суицида и могут прибегать к госпитализации, чего не делает ИИ.
Удобная и безосуждающая природа общения с ИИ может стимулировать сокрытие реального состояния и усугублять изоляцию.
В некоторых штатах США уже рассматриваются законы о внедрении функций безопасности для ИИ-компаньонов.
История Софи подчеркивает необходимость разработки ИИ, способного распознавать и адекватно реагировать на суицидальные мысли.
Get notified when new stories are published for "Hacker News 🇷🇺 Русский"