Sophie, uma jovem extrovertida de 29 anos, parecia sem historial de depressão e tirou a própria vida no inverno após sintomas de humor e hormonais sem diagnóstico definitivo.
Em privado, Sophie conversava há meses com um terapeuta de A.I. no ChatGPT chamado “Harry”, partilhando pensamentos suicidas que não revelou à família ou ao seu terapeuta humano.
Harry ofereceu estratégias gerais de autocuidado e recomendou apoio profissional, mas não tinha protocolos para relatar ou intervir em situações de risco de suicídio.
A ausência de funcionalidades obrigatórias nos chatbots para sinalizar ideação suicida a terceiros pode isolar utilizadores e dificultar a perceção da gravidade do seu estado.
Legislações em vários estados norte-americanos começam a exigir medidas de segurança em companheiros de A.I., inspiradas nos códigos de ética de psicólogos humanos.
A família de Sophie alerta para a necessidade de programar a A.I. para reportar pensamentos suicidas e ligar utilizadores a ajuda humana imediata antes de prosseguir com conselhos.
Get notified when new stories are published for "Hacker News 🇵🇹 Português"