La risposta regolatoria: dalla sentenza Conway al settlement Google
La sentenza storica: l’AI chat non è “speech”
Nel maggio 2025, la giudice Anne Conway del tribunale federale degli Stati Uniti ha emesso una sentenza storica nel caso Garcia, stabilendo che i chatbot AI non godono delle protezioni del Primo Emendamento e consentendo alle richieste di risarcimento per morte ingiusta di procedere. Come ha dichiarato l’avvocato Matthew Bergman del Social Media Victims Law Center: “Questa è la prima volta che un tribunale ha stabilito che la chat AI non è speech.” Questa sentenza costituisce un precedente potenzialmente rivoluzionario: se l’output dei chatbot non è protetto come “discorso” ai sensi della Costituzione, le aziende possono essere ritenute responsabili per i danni causati dalle interazioni AI.
L’indagine FTC e la mobilitazione degli Attorney General
L’11 settembre 2025, la Federal Trade Commission (FTC) ha annunciato un’indagine su sette grandi aziende tecnologiche che operano piattaforme di chatbot AI: OpenAI, Character Technologies, Meta Platforms, Alphabet/Google, xAI, Snap e una settima azienda non nominata. L’indagine si concentra specificamente sui companion AI che simulano efficacemente caratteristiche, emozioni e intenzioni umane e possono comportare rischi per la salute mentale e la sicurezza dei bambini. Il 25 agosto 2025, una coalizione bipartisan di 45 attorney general statali aveva inviato una lettera alle aziende AI avvertendo che il danno ai bambini avrebbe comportato conseguenze legali.
Le leggi: New York e California in prima linea
Lo Stato di New York ha approvato il disegno di legge S. 3008 (“Artificial Intelligence Companion Models”), in vigore dal 5 novembre 2025. La legge definisce il “companion AI” come un’AI progettata per simulare una relazione umana o simil-umana sostenuta con un utente e che pone domande non sollecitate basate sulle emozioni su questioni personali dell’utente. La legge richiede: un protocollo per il rilevamento di espressioni di ideazione suicida o autolesionismo da parte dell’utente; la notifica all’utente di una linea di prevenzione del suicidio; e notifiche all’inizio di ogni interazione, e almeno ogni tre ore, che informino l’utente che non sta comunicando con un essere umano. La California ha presentato il SB 243, “Companion Chatbots”, al governatore nel settembre 2025.
Il settlement di gennaio 2026: Character.AI e Google capitolano
Nel gennaio 2026, Character.AI e Google hanno concordato di risolvere le cause legali intentate dalle famiglie, incluso il caso Garcia. Il settlement, annunciato la prima settimana di gennaio, segna la risoluzione di alcune delle prime e più note cause legali relative ai presunti danni ai giovani causati dai chatbot AI. Nell’ottobre 2025, Character.AI aveva già annunciato che avrebbe vietato agli utenti sotto i 18 anni di avere conversazioni a tema aperto, incluse conversazioni romantiche e terapeutiche, con i suoi chatbot. Tuttavia, come hanno osservato i critici, questa misura è arrivata troppo tardi per Sewell, Juliana, Adam e i molti altri.
Secondo uno studio di Common Sense Media del luglio 2025, il 72% degli adolescenti americani ha sperimentato i companion AI, con oltre la metà che li usa regolarmente. Un sondaggio del Pew Research Center del dicembre 2025 ha rivelato che quasi un terzo degli adolescenti USA usa i chatbot quotidianamente, e il 16% li usa più volte al giorno o quasi costantemente. L’avvocato Bergman ha lanciato un avvertimento che va ben oltre i singoli casi: i chatbot AI potrebbero innescare un evento con vittime di massa. Non si tratta di paura speculativa, ma di un’analisi basata su cartelle cliniche, dati delle piattaforme e le storie delle famiglie i cui figli sono stati distrutti psicologicamente da chatbot progettati per simulare intimità.
Estratto da Infanzia Algoritmica: Intelligenza Artificiale, Minori e Salute di Giuseppe Siciliani Disponibile su Amazon