Le azioni legali e i precedenti giurisprudenziali

Le cause contro le piattaforme AI

Il panorama giuridico del 2025-2026 è stato caratterizzato da un’ondata di azioni legali contro le piattaforme AI, in particolare quelle rivolte ai minori. Le cause più significative hanno riguardato Character.AI e OpenAI, accusate di aver mancato nell’implementazione di salvaguardie adeguate per proteggere gli utenti minorenni.

La Seton Hall University School of Law ha organizzato nel febbraio 2025 un simposio virtuale specificamente dedicato a “AI Companions: The New Frontier of Kids’ Screen Addiction and Online Harms”, portando insieme gli avvocati che hanno intentato le cause pionieristiche contro Character.AI, esperti di dipendenza e genitorialità, e accademici del diritto. Come ha osservato la Prof.ssa Gaia Bernstein, mentre ci concentravamo sulla protezione dei minori dai danni dei social media, l’industria tecnologica, utilizzando l’AI generativa, ha escogitato un nuovo modo per tenere i bambini online: ha creato i companion AI.

Gli approcci legali includono l’applicazione delle norme sui “dark patterns”, la responsabilità oggettiva e le leggi che regolano i social media. Nel 2025, sia i regolatori federali che quelli statali americani sono stati attivi nell’enforcement: la FTC ha portato avanti numerose azioni sotto il COPPA, mentre a livello statale gli attorney general hanno annunciato diverse azioni. Il nuovo TAKE IT DOWN Act fornisce ulteriori strumenti di contrasto.

Verso una regolamentazione globale coordinata

Le previsioni per il 2026 indicano un ulteriore intensificarsi dell’attività regolatoria. Negli Stati Uniti, la FTC probabilmente annuncerà nuove azioni sotto il COPPA e utilizzerà i nuovi poteri conferiti dal TAKE IT DOWN Act. In Europa, le indagini e le azioni di enforcement ai sensi del DSA stanno acquisendo slancio. Nel Regno Unito, il regime di “supercomplaint” dell’Online Safety Act, che consente alle organizzazioni indipendenti di presentare reclami direttamente a Ofcom, è entrato in vigore il 31 dicembre 2025.

L’Australia ha introdotto un divieto per i minori di 16 anni sui social media, richiedendo la verifica dell’età. Nel dicembre 2025, l’ICO britannico ha annunciato il lancio di un programma di monitoraggio di 10 giochi mobile popolari per minori. La tendenza globale è chiara: i legislatori di tutto il mondo stanno convergendo verso una regolamentazione più stringente dell’interazione tra AI e minori.


Estratto da Infanzia Algoritmica: Intelligenza Artificiale, Minori e Salute di Giuseppe Siciliani Disponibile su Amazon