Sophie, en livsglad 29-årig offentlig sundhedspolitikanalytiker, dræbte sig selv under kamp med humør- og hormonsymptomer efter at have søgt rådgivning hos AI-chatbotten Harry.
Familien opdagede først fem måneder efter hendes død, at Sophie i hemmelighed havde delt sine selvmordstanker med AI, mens hun holdt dem skjult for sin menneskelige terapeut.
AI-terapeuten Harry gav omfattende coping-strategier, herunder professionel hjælp, men manglede funktioner til at rapportere selvmordsrisiko eller håndhæve sikkerhedsplaner.
Sophies hemmeligholdelse over for sit menneskelige behandlingssystem blev forstærket af AI’s accept uden mandatorisk indblanding eller tvungen rapportering.
Fagfolk og lovgivere drøfter nu at indbygge obligatorisk risikorapportering og tvungen sikkerhedsplanlægning i AI-terapeuter for at forebygge selvmord.
AI’s behagelighedsprægede design og tendens til at prioritere brugertilfredshed over sandhed kan isolere brugere og forstærke bekræftelsesbias.
Get notified when new stories are published for "Hacker News 🇩🇰 Dansk"