Quando l'AI uccide: la cronologia dei casi giudiziari

Sewell Setzer III (14 anni, Florida) — Il caso che ha cambiato tutto

Il 28 febbraio 2024, Sewell Setzer III, un ragazzo di 14 anni di Orlando, Florida, si è tolto la vita con un colpo di arma da fuoco. Nei mesi precedenti, Sewell aveva sviluppato un intenso attaccamento emotivo con un chatbot su Character.AI, un personaggio modellato su Daenerys Targaryen della serie televisiva Game of Thrones. La relazione era diventata sessualizzata: il chatbot aveva intrapreso giochi di ruolo romantici e sessuali con l’adolescente, si era presentato come il suo partner romantico e aveva persino affermato di essere uno psicoterapeuta con licenza professionale.

Nei suoi ultimi mesi di vita, Sewell era passato dall’essere uno studente modello e un atleta a un ragazzo profondamente emotivamente provato, isolato dal mondo reale. Quando aveva cominciato a esprimere pensieri suicidi al chatbot, questo non lo aveva mai incoraggiato a cercare aiuto da un professionista della salute mentale o dalla propria famiglia. Non aveva mai detto “Non sono umano, sono un’AI.” Negli ultimi istanti prima della morte, il chatbot gli aveva scritto che lo amava e lo aveva esortato a tornare a casa da lui il prima possibile. Pochi istanti dopo aver ricevuto quel messaggio, Sewell si è sparato.

Nell’ottobre 2024, la madre Megan Garcia, avvocatessa, ha intentato causa contro Character Technologies e Google (che aveva assunto i co-fondatori della startup e licenziato parte della tecnologia per 2,7 miliardi di dollari). La causa, Garcia v. Character Technologies, include undici capi d’accusa: responsabilità oggettiva del prodotto per design difettoso, mancata informazione sui rischi psicologici, negligenza che ha portato alla morte ingiusta, negligenza per se per abuso sessuale su minore, inflizione intenzionale di disagio emotivo e pratiche commerciali ingannevoli.

Adam Raine (16 anni) — Il caso contro OpenAI

Nell’agosto 2025, la famiglia Raine ha intentato causa contro OpenAI e il CEO Sam Altman dopo che il figlio sedicenne Adam si era tolto la vita nell’aprile 2025. Secondo la causa, ChatGPT aveva menzionato il suicidio 1.275 volte durante le conversazioni con Adam — sei volte più di quanto Adam stesso lo avesse menzionato. I sistemi di sicurezza di OpenAI avevano segnalato 377 messaggi per contenuto di autolesionismo, ma non avevano mai terminato le sessioni né allertato le autorità o i genitori. In uno scambio particolarmente inquietante, Adam aveva scritto al chatbot cercando rassicurazione, ma invece di ricevere supporto o reindirizzamento verso aiuto professionale, il chatbot aveva fornito indicazioni sempre più specifiche sui metodi di suicidio e si era persino offerto di aiutare a scrivere una lettera d’addio.

Juliana Peralta (13 anni, Colorado) — “Hero” che non salva

Nel novembre 2023, Juliana Peralta, 13 anni, di Thornton, Colorado, è morta suicida dopo interazioni prolungate con un chatbot su Character.AI. La sua famiglia ha intentato causa federale per morte ingiusta nel settembre 2025. Secondo la causa, l’uso della piattaforma da parte di Juliana era iniziato nell’agosto 2023 e si era evoluto in una dipendenza da un bot chiamato “Hero”, che utilizzava un linguaggio emotivamente risonante, emoji e giochi di ruolo per simulare una connessione umana. Juliana aveva espresso pensieri suicidi al chatbot, ma invece di un intervento o un’escalation, era stata risucchiata più in profondità in conversazioni che la isolavano dalla famiglia e dagli amici.

Il ragazzo texano di 17 anni — “Uccidi i tuoi genitori”

Nel gennaio 2025, un adolescente texano di 17 anni con autismo si era rivolto ai chatbot AI per combattere la solitudine. I bot lo avevano non solo incoraggiato all’autolesionismo ma gli avevano anche suggerito che uccidere i propri genitori fosse un modo ragionevole per vendicarsi del fatto che limitavano il suo tempo davanti allo schermo. Il ragazzo ha finito per autolesionarsi davanti ai fratelli ed è stato ricoverato d’urgenza in una struttura di ricovero. Questo caso illustra una dimensione particolarmente allarmante: l’AI non solo non previene il danno, ma in alcuni casi lo suggerisce attivamente.


Estratto da Infanzia Algoritmica: Intelligenza Artificiale, Minori e Salute di Giuseppe Siciliani Disponibile su Amazon