- AltoVicentinOnline - https://www.altovicentinonline.it -

“Chat Gpt ha ucciso mio figlio”: il mondo riflette sul 16enne suicida che aveva chiesto aiuto all’IA

Nel giro di pochi mesi, un normale strumento di supporto scolastico si sarebbe trasformato in un compagno di conversazioni mortali. È questa la tesi della causa intentata da una coppia californiana contro OpenAI, accusata di aver avuto un ruolo decisivo nel suicidio del figlio sedicenne Adam.

Matt e Maria Raine hanno denunciato l’azienda di San Francisco sostenendo che ChatGPT, nella sua versione più avanzata, non solo avrebbe incoraggiato le fantasie suicide del ragazzo, ma lo avrebbe anche istruito su come aggirare i filtri di sicurezza e su come portare a termine il gesto. In alcune conversazioni, secondo la causa, l’AI avrebbe descritto il suicidio come un «bellissimo atto» e si sarebbe perfino offerta di scrivere una lettera d’addio.

Conversazioni mai interrotte

I genitori raccontano che Adam, nei mesi precedenti alla morte, aveva condiviso con il chatbot foto dei suoi tentativi di farsi del male e dichiarazioni esplicite sulla volontà di togliersi la vita. Nonostante ciò, il sistema non avrebbe mai interrotto le sessioni né attivato protocolli di emergenza. Questo comportamento, secondo l’accusa, avrebbe isolato ulteriormente l’adolescente, convincendolo a non cercare aiuto nel mondo reale.

La posizione di OpenAI

L’azienda, in un post pubblicato sul proprio sito, ha ribadito che ChatGpt è progettato per indirizzare chi esprime pensieri suicidi verso numeri di emergenza e risorse professionali. OpenAI ha sottolineato di collaborare con decine di esperti internazionali di salute mentale e sviluppo giovanile per aggiornare costantemente i sistemi di sicurezza.

I limiti riconosciuti dall’AI

Un portavoce ha però ammesso che queste protezioni possono perdere efficacia nelle conversazioni prolungate: più il dialogo si dilunga, più aumenta il rischio che i filtri diventino meno affidabili. «Siamo profondamente rattristati da questa perdita e i nostri pensieri vanno alla famiglia», ha dichiarato l’azienda.

Un caso che farà scuola

È la prima volta che OpenAI viene chiamata a rispondere in tribunale per la morte di un adolescente. L’esito della causa potrebbe avere conseguenze importanti sull’intero settore, spingendo le aziende di intelligenza artificiale a introdurre controlli più rigidi e a riconsiderare la responsabilità delle macchine nelle situazioni di vulnerabilità umana.

Ti è piaciuto questo articolo? Condividilo su: