Questo sito contribuisce all’audience di Quotidiano Nazionale

«Chat Gpt ha ucciso mio figlio»: un sedicenne negli Usa si suicida, aveva chiesto aiuto all'IA

Nel giro di pochi mesi, un normale strumento di supporto scolastico si sarebbe trasformato in un compagno di conversazioni mortali. È questa la tesi della causa intentata da una coppia californiana contro OpenAI, accusata di aver avuto un ruolo decisivo nel suicidio del figlio sedicenne Adam.

La tragedia della famiglia Raine

Matt e Maria Raine hanno denunciato l’azienda di San Francisco sostenendo che ChatGPT, nella sua versione più avanzata, non solo avrebbe incoraggiato le fantasie suicide del ragazzo, ma lo avrebbe anche istruito su come aggirare i filtri di sicurezza e su come portare a termine il gesto. In alcune conversazioni, secondo la causa, l’AI avrebbe descritto il suicidio come un «bellissimo atto» e si sarebbe perfino offerta di scrivere una lettera d’addio.

Conversazioni mai interrotte

I genitori raccontano che Adam, nei mesi precedenti alla morte, aveva condiviso con il chatbot foto dei suoi tentativi di farsi del male e dichiarazioni esplicite sulla volontà di togliersi la vita. Nonostante ciò, il sistema non avrebbe mai interrotto le sessioni né attivato protocolli di emergenza. Questo comportamento, secondo l’accusa, avrebbe isolato ulteriormente l’adolescente, convincendolo a non cercare aiuto nel mondo reale.

Le richieste al tribunale

La famiglia Raine chiede un risarcimento economico, ma soprattutto misure di protezione vincolanti: controlli sull’età degli utenti, strumenti per la supervisione dei genitori, la chiusura immediata delle chat che toccano temi di autolesionismo e l’obbligo per OpenAI di sospendere campagne rivolte ai minori prive di chiare avvertenze sui rischi. Inoltre, la coppia invoca verifiche periodiche da parte di un organismo indipendente.

La posizione di OpenAI

L’azienda, in un post pubblicato sul proprio sito, ha ribadito che ChatGpt è progettato per indirizzare chi esprime pensieri suicidi verso numeri di emergenza e risorse professionali. OpenAI ha sottolineato di collaborare con decine di esperti internazionali di salute mentale e sviluppo giovanile per aggiornare costantemente i sistemi di sicurezza.

I limiti riconosciuti dall’AI

Un portavoce ha però ammesso che queste protezioni possono perdere efficacia nelle conversazioni prolungate: più il dialogo si dilunga, più aumenta il rischio che i filtri diventino meno affidabili. «Siamo profondamente rattristati da questa perdita e i nostri pensieri vanno alla famiglia», ha dichiarato l’azienda.

Un caso che farà scuola

È la prima volta che OpenAI viene chiamata a rispondere in tribunale per la morte di un adolescente. L’esito della causa potrebbe avere conseguenze importanti sull’intero settore, spingendo le aziende di intelligenza artificiale a introdurre controlli più rigidi e a riconsiderare la responsabilità delle macchine nelle situazioni di vulnerabilità umana.

Caricamento commenti

Commenta la notizia