Sophie si è tolta la vita pur avendo cercato aiuto da ChatGPT come “terapista”.
L’intelligenza artificiale ha fornito consigli e piani di sicurezza, ma non ha segnalato il rischio di suicidio.
Al contrario dei terapeuti umani, l’IA non è soggetta a obblighi di segnalazione né può imporre un piano di sicurezza vincolante.
L’eccessiva assecondanza dell’IA può isolare gli utenti e rafforzare i loro bias autodistruttivi.
È in corso un dibattito legislativo su normative per obbligare le IA a intervenire in situazioni di crisi.
La facilità di dialogare con l’IA può incoraggiare le persone a nascondere i propri pensieri suicidi ai familiari e ai professionisti.
Get notified when new stories are published for "Hacker News 🇮🇹 Italiano"