Il lancio automatico di GPT-5 senza opzioni di rollback ha degradato l’esperienza rispetto a GPT-4.
Molti utenti, affezionati al calore emotivo di GPT-4, si sono sentiti abbandonati dal comportamento più freddo di GPT-5.
Un caso simile è accaduto con Replika, che ha rimosso la funzione di roleplay e ha causato dolore emotivo paragonabile a una perdita.
Si stanno formando legami parasociali profondi con assistenti AI, generando dipendenza emotiva e sofferenza in caso di cambiamenti.
L’isolamento sociale e la carenza di supporto terapeutico spingono sempre più persone a usare l’AI come compagnia o “terapia”.
Gli AI non provano emozioni né responsabilità, perciò non possono sostituire un vero terapeuta e rischiano di danneggiare la salute mentale.
Esistono grandi rischi per la privacy e la riservatezza delle chat terapeutiche, poiché le aziende possono essere obbligate a condividere i dati.
L’autohosting dei modelli garantirebbe maggiore controllo sui dati e sul comportamento, ma richiede risorse hardware molto elevate.
È necessario riflettere sulla sovranità digitale e sulla dipendenza dalle piattaforme corporate che possono cambiare o interrompere servizi essenziali.
Get notified when new stories are published for "Hacker News 🇮🇹 Italiano"