La cornice legislativa: dall'AI Act europeo al COPPA americano
L’AI Act dell’Unione Europea e la protezione dei minori
Il Regolamento UE 2024/1689 sull’Intelligenza Artificiale (AI Act) rappresenta il primo quadro normativo completo al mondo specificamente dedicato alla regolamentazione dell’AI. Il regolamento enfatizza la protezione dei gruppi vulnerabili che interagiscono con i sistemi di AI, inclusi esplicitamente i bambini, affrontando le loro esigenze specifiche nell’ambiente digitale.
L’AI Act adotta un approccio basato sul rischio, classificando i sistemi di AI in quattro categorie: rischio inaccettabile (vietato), alto rischio (soggetto a requisiti stringenti), rischio limitato (soggetto a obblighi di trasparenza) e rischio minimo (libero). I sistemi di AI che interagiscono con bambini richiedono un’attenzione speciale in tutte le categorie, e le applicazioni che sfruttano le vulnerabilità dovute all’età sono espressamente vietate.
Il Digital Services Act e la protezione dei minori online
Il 14 luglio 2025, la Commissione Europea ha pubblicato le linee guida sulla protezione dei minori online ai sensi del Digital Services Act (DSA). Queste linee guida, inizialmente rilasciate per consultazione nel maggio 2025, forniscono indicazioni alle piattaforme online sulle misure da adottare per rispettare i propri obblighi di protezione della privacy, della sicurezza e dell’incolumità dei minori.
Le linee guida si concentrano su tre aree principali. Primo, la verifica dell’età: le piattaforme sono incoraggiate a scegliere il metodo meno intrusivo e più affidabile, con la Commissione che sta sviluppando un sistema di verifica dell’età a livello UE come misura transitoria fino al lancio del Wallet Europeo di Identità Digitale previsto per il 2026. Secondo, il design sicuro: gli account dei minori dovrebbero avere le impostazioni predefinite più protettive, con la disattivazione di funzionalità che promuovono l’uso eccessivo come scrolling infinito, streak e ricompense giornaliere. Terzo, le interfacce devono essere facilmente navigabili, accessibili a tutti i bambini (inclusi quelli con disabilità), e fornire avvisi chiari quando si interagisce con strumenti AI.
Tuttavia, come sottolinea un’analisi di TechPolicy.Press dell’ottobre 2025, il problema è insito nel formato: le linee guida sono consultive, non vincolanti. La Commissione invita le aziende a implementare meccanismi di verifica dell’età, ma si ferma prima di obbligarle. Il risultato è un mosaico in cui alcuni dei chatbot più utilizzati si affidano a poco più che caselle di spunta che chiedono agli utenti di confermare di avere più di 18 anni.
Il COPPA aggiornato e le sue implicazioni per l’AI
Negli Stati Uniti, il Children’s Online Privacy Protection Act (COPPA) è stato oggetto di un aggiornamento significativo nel 2025. La Final Rule della Federal Trade Commission (FTC), entrata in vigore il 23 giugno 2025 con un termine di conformità fissato al 22 aprile 2026, introduce importanti novità con implicazioni dirette per l’AI.
Le novità principali includono: la separazione del consenso per la divulgazione a terze parti (come la pubblicità) dal consenso per le funzioni primarie, richiedendo un consenso opt-in specifico per la pubblicità mirata; l’espansione della definizione di “informazioni personali” per includere identificatori persistenti, dati biometrici (incluse impronte vocali e template facciali), geolocalizzazione e dati comportamentali o inferiti; regole più stringenti sulla conservazione dei dati, con l’obbligo di eliminarli quando non più necessari.
Particolarmente rilevante per il nostro tema è la disposizione secondo cui la divulgazione delle informazioni personali di un bambino per addestrare o sviluppare tecnologie di intelligenza artificiale non è considerata parte integrante di un sito web o servizio online e richiede pertanto un consenso parentale verificabile separato. Questa disposizione riconosce formalmente il rischio che i dati dei bambini vengano utilizzati per alimentare sistemi AI senza il consenso informato dei genitori.
La Convenzione ONU sui Diritti del Fanciullo nell’era dell’AI
La Convenzione delle Nazioni Unite sui Diritti del Fanciullo (CRC) fornisce il quadro di riferimento internazionale per la protezione dei bambini. L’UNICEF ha identificato sette principi fondamentali per le politiche AI centrate sui bambini, con il “sostegno allo sviluppo e al benessere dei bambini” come primo tra tutti. Questi principi includono il diritto alla non discriminazione, il superiore interesse del bambino, e il diritto di essere ascoltati.
L’articolo di Chng e colleghi su npj Digital Medicine (2025) sviluppa raccomandazioni specifiche per un’AI centrata sul bambino in ambito sanitario, sottolineando che i governi e le imprese dovrebbero investire nello sviluppo infrastrutturale per affrontare il divario digitale e mirare a una condivisione equa dei benefici dell’AI. Non solo devono essere forniti finanziamenti e incentivi per politiche e strategie AI centrate sui bambini, ma deve essere fornito supporto per la loro implementazione concreta.
Estratto da Infanzia Algoritmica: Intelligenza Artificiale, Minori e Salute di Giuseppe Siciliani Disponibile su Amazon