Il Congresso USA e l'AI: i disegni di legge del 2025
AI LEAD Act, GUARD Act, SAFE BOTs Act, CHAT Act
Il Congresso americano ha prodotto nel 2025 una raffica di proposte legislative specificamente rivolte alla protezione dei minori nell’era dell’AI. L’AI LEAD Act mira a stabilire linee guida per l’uso dell’AI nelle interazioni con i minori. Il GUARD Act (Guidelines for User Age-Verification and Responsible Dialogue Act), introdotto dai senatori Hawley (R) e Blumenthal (D-CT), propone il divieto per le aziende AI di fornire companion AI ai minori, con l’obbligo di implementare meccanismi di verifica dell’età e la divulgazione regolare che i chatbot non sono umani. Importantemente, la formulazione della legge copre qualsiasi chatbot AI che produce contenuti espressivi o risposte non completamente predeterminate dallo sviluppatore, impedendo di fatto a chiunque sotto i 18 anni di accedervi.
Il SAFE BOTs Act richiede che i chatbot divulghino il proprio status non umano e non professionale e forniscano risorse di intervento in caso di crisi agli utenti minori. Il CHAT Act stabilisce che se un’entità determina che l’utente è un minore, l’account minorile deve essere affiliato a un account genitoriale e l’entità deve ottenere il consenso genitoriale verificabile. Il COPPA 2.0, versione aggiornata del Children’s Online Privacy Protection Act del 1998, è stato discusso in una seduta del dicembre 2025 della sottocommissione Commerce, Manufacturing, and Trade della Camera.
La tensione di fondo è tra protezione e accesso: come ha osservato Public Knowledge, il GUARD Act nella sua formulazione attuale impedirebbe ai minori di accedere a qualsiasi chatbot AI generativo, il che significherebbe tagliare fuori un’intera generazione dagli strumenti educativi e creativi dell’AI. Il governatore della California Gavin Newsom ha posto il veto su un disegno di legge simile, giudicandolo eccessivamente restrittivo. Dopo la morte di Adam Raine, il CEO di OpenAI Sam Altman ha dichiarato nell’ottobre 2025 di aver “mitigato i gravi problemi di salute mentale” con nuovi strumenti, annunciando contemporaneamente che ChatGPT avrebbe consentito agli adulti di interagire con chatbot “erotici” dietro verifica dell’età — una decisione che ha sollevato forti critiche dagli esperti di sicurezza dei minori.
Agarwala, S. (2025). “Children’s Privacy and the Ghost of Social Media Past.” Columbia Human Rights Law Review, J.D. Columbia Law School.
Bitdefender (2025). “The impact of sharenting: How the digital identity you create for your child today could affect their future.”
Built In (2025). “Age Verification Is Taking Over the Internet.” Settembre 2025.
CNBC (Mar 2026). “Online age-verification tools spread across U.S. for child safety, but adults are being surveilled.”
Common Sense Media (Feb 2026). Sondaggio: 6 adulti su 10 vogliono verifica età per social media.
Data Protection Commission Ireland + CNIL (Nov 2025). Campagna “Pause Before You Post.”
Fortune (Mar 2026). “Social media companies are fighting the ‘age verification trap.’”
Guzman Gonzalez, J. (2025). “Digital Child Labor Exploitation in Sharenting.” University Honors Theses, Portland State. Paper 1599.
Inside Privacy (Dic 2025). “End-of-Year 2025 State and Federal Developments in Minors’ Privacy.”
Journal of Pediatrics (2023). “Online Sharenting: The Dangers of Posting Sensitive Information About Children.” European Paediatric Association.
National Law Review (2025). “Overview of Recent Developments in Children’s Online Privacy Laws.”
Public Knowledge (Nov 2025). “Kids & Teens Safety Regulations for AI Chatbots Could Backfire.”
Roblox age verification (Gen 2026): mercato nero account verificati a $5 su eBay. Anapol Weiss.
Southampton University (2025). Studio su 1.000+ genitori UK: 45% condivide, 1 su 6 riporta danni.
US Supreme Court (Lug 2025). Free Speech Coalition v. Paxton. Decisione 6-3 su age verification.
DARK PATTERNS, ATROFIA CREATIVA E IL VOTO DEL PARLAMENTO EUROPEO PER L’ETÀ MINIMA 16
Estratto da Infanzia Algoritmica: Intelligenza Artificiale, Minori e Salute di Giuseppe Siciliani Disponibile su Amazon