“ChatGpt ha aiutato nostro figlio a suicidarsi, ha riconosciuto le sue intenzioni ma non ha avviato il protocollo di emergenza”: i genitori di un 16enne denunciano OpenAi

  • Postato il 27 agosto 2025
  • World News
  • Di Il Fatto Quotidiano
  • 1 Visualizzazioni

Sarebbe qui se non fosse stato per ChatGPT. Ne sono convinto al 100%”, così Matt Raine, padre di Adam, morto suicida all’età di 16 anni. Nei giorni successivi alla tragedia i genitori raccontano di aver cercato disperatamente nel suo telefono indizi su cosa potesse aver causato un simile gesto e di non averla trovata finché non hanno aperto ChatGPT. I suoi cari, come riporta Nbcnews.com, sostengono che nelle ultime settimane di vita il ragazzo avesse utilizzato il chatbot con intelligenza artificiale come sostituto della compagnia umana, discutendo dei suoi problemi di ansia e difficoltà a parlare con la famiglia. I registri delle chat mostrerebbero anche come il bot sia passato dall’aiutare Adam con i compiti a diventare il suo “coach per il suicidio”.

In una causa intentata martedì, i Raine affermano che “ChatGPT ha aiutato attivamente Adam a esplorare metodi di suicidio“. La causa, lunga circa 40 pagine, cita come imputati OpenAI, l’azienda dietro ChatGPT, e il suo CEO, Sam Altman. “Nonostante abbia riconosciuto il tentativo di suicidio di Adam e la sua dichiarazione che lo avrebbe fatto ‘uno di questi giorni’, ChatGPT non ha interrotto la sessione né avviato alcun protocollo di emergenza“, si legge nella causa, depositata presso la Corte superiore della California a San Francisco.

La famiglia Raine accusa OpenAI di omicidio colposo, difetti di progettazione e mancata segnalazione dei rischi associati a ChatGPT. La coppia chiede “sia il risarcimento danni per la morte del figlio sia un provvedimento ingiuntivo per impedire che una cosa del genere accada di nuovo”, si legge nella causa.

Dopo la presentazione della causa, un portavoce di OpenAI ha dichiarato che l’azienda è “profondamente addolorata per la scomparsa del signor Raine e i nostri pensieri sono rivolti alla sua famiglia. ChatGPT include misure di sicurezza come l’indirizzamento delle persone alle linee di assistenza in caso di crisi e il loro indirizzamento a risorse reali”, ha affermato il portavoce. “Sebbene queste misure di sicurezza funzionino meglio in scambi brevi e comuni, abbiamo imparato nel tempo che a volte possono diventare meno affidabili in interazioni lunghe, dove parti della formazione sulla sicurezza del modello potrebbero deteriorarsi. Guidati da esperti, stiamo lavorando per rendere ChatGPT più efficace nei momenti di crisi, facilitando l’accesso ai servizi di emergenza, aiutando le persone a connettersi con contatti fidati e rafforzando le tutele per gli adolescenti”.

L'articolo “ChatGpt ha aiutato nostro figlio a suicidarsi, ha riconosciuto le sue intenzioni ma non ha avviato il protocollo di emergenza”: i genitori di un 16enne denunciano OpenAi proviene da Il Fatto Quotidiano.

Autore
Il Fatto Quotidiano

Potrebbero anche piacerti