Il panorama globale: dal ban australiano alla Dichiarazione ONU

La rivoluzione australiana: il primo divieto al mondo per gli under-16

Alla fine del 2025, l’Australia ha compiuto un passo senza precedenti nella storia della regolamentazione digitale: è diventata la prima nazione al mondo a vietare gli account sui social media per i bambini sotto i 16 anni. La decisione è stata motivata dai risultati di un rapporto commissionato dal governo che mostrava dati allarmanti: quasi due terzi dei bambini tra i 10 e i 15 anni avevano visualizzato contenuti di odio, violenti o disturbanti online, e più della metà era stata vittima di cyberbullismo. La stragrande maggioranza di questa esposizione avveniva su piattaforme di social media.

Il commissario eSafety australiano ha assunto un ruolo di primo piano nell’enforcement, emettendo quattro avvisi legali a società che forniscono companion AI, richiedendo informazioni sulle misure di sicurezza implementate per proteggere i minori dall’esposizione a determinati danni, inclusi contenuti sessualmente espliciti e autolesionismo. L’approccio australiano rappresenta un cambio di paradigma: dal modello “notice-and-consent” (avvisa e chiedi il consenso) a un modello basato su restrizioni d’accesso dirette. La premessa è che il consenso informato è una finzione quando si tratta di minori esposti a tecnologie progettate per massimizzare il coinvolgimento.

Tuttavia, l’approccio non è privo di critiche. Alcuni gruppi per i diritti digitali hanno definito il divieto una “soluzione rapida inefficace”, sostenendo che potrebbe spingere i minori verso piattaforme meno regolamentate o private, e che ignora il potenziale educativo e sociale dei social media. Il dibattito riflette una tensione fondamentale che attraversa tutta la regolamentazione dell’AI per i minori: come bilanciare protezione e autonomia, sicurezza e accesso, controllo e empowerment.

L’effetto domino: chi seguirà l’Australia?

L’esempio australiano ha innescato un effetto domino a livello globale. Diversi altri paesi, tra cui Malaysia, Regno Unito, Francia e Canada, stanno preparando regolamenti e leggi per divieti o restrizioni simili. L’Unione Europea ha mostrato indicazioni precoci che potrebbe introdurre nuove regole che richiedono ai ragazzi tra i 13 e i 16 anni di ottenere il consenso parentale prima di accedere a piattaforme di social media, piattaforme di condivisione video e determinati companion AI. L’UE sta anche lavorando attivamente verso uno standard armonizzato di verifica dell’età.

Negli Stati Uniti, i legislatori statali hanno seguito la tendenza emanando diverse restrizioni d’accesso rivolte ai minori, limitando il loro accesso alle piattaforme social media, ai feed guidati da algoritmi e, sempre più, ai chatbot AI e ai sistemi di raccomandazione. Tuttavia, questi sforzi sono stati in gran parte bloccati da sfide legate al Primo Emendamento: quasi tutte queste leggi sono sospese in attesa dell’esito di contenziosi. La proliferazione di leggi che tentano di limitare l’accesso a queste piattaforme e tecnologie riflette comunque un desiderio crescente di superare il paradigma del “notice-and-consent”, in particolare quando si tratta dei dati e delle esperienze online dei minori.

La Dichiarazione Congiunta ONU del 19 gennaio 2026

Il 19 gennaio 2026, a Ginevra, 13 agenzie e organizzazioni internazionali delle Nazioni Unite hanno firmato la Dichiarazione Congiunta sull’Intelligenza Artificiale e i Diritti del Fanciullo, il documento più autorevole e completo mai prodotto sul tema a livello internazionale. I firmatari includono ITU, il Comitato ONU sui Diritti del Fanciullo (CRC), UNICEF, ILO, IPU, UNESCO, UNICRI, UNODA, l’Alto Commissariato per i Diritti Umani, e altri. Oltre 50 organizzazioni hanno co-sottoscritto il documento.

La Dichiarazione è stata il frutto di un anno di lavoro multi-stakeholder guidato da ITU, CRC e UNICEF, con il contributo di oltre 60 istituzioni e la partecipazione di bambini da tutte le regioni ONU. Il suo messaggio centrale è politicamente potente nella sua semplicità: l’intelligenza artificiale e i diritti dei bambini devono essere trattati come un’agenda unica e integrata, dalla legislazione alla progettazione dei prodotti. Come ha dichiarato Sophie Kiladze, Presidente del Comitato CRC: la vera misura del progresso non è solo l’avanzamento tecnologico, ma il benessere e i diritti di ogni bambino.

La Dichiarazione si articola in undici pilastri operativi che qualsiasi strategia nazionale sull’AI, roadmap EdTech o regime di governance delle piattaforme può adottare. Tra i principi cardine: gli stati devono rafforzare i quadri di governance AI per tutelare i diritti dei bambini; i governi e le aziende devono garantire che i sistemi AI siano trasparenti, accountability-oriented e progettati per proteggere i bambini; i sistemi AI che non sono rigorosamente testati prima della distribuzione non devono mai interagire con o avere impatto sui bambini; le decisioni guidate dall’AI devono dare priorità al superiore interesse e allo sviluppo olistico di ogni bambino; e i punti di vista e le esperienze dei bambini devono informare in modo significativo la progettazione delle politiche AI.

La dimensione quantitativa della legislazione globale

Per comprendere la velocità del cambiamento normativo, è utile considerare i numeri. Secondo l’Artificial Intelligence Index Report 2025 prodotto dai ricercatori della Stanford University, nel 2023 almeno 30 leggi relative all’AI sono state approvate in tutto il mondo. L’anno successivo ne sono state approvate altre 40. I soli stati americani hanno approvato 82 disegni di legge relativi all’AI nel 2024. Secondo l’OCSE, 72 paesi hanno attualmente politiche relative all’AI. Tuttavia, nella maggior parte dei casi, queste politiche non sono ancora state tradotte in regolamenti giuridicamente vincolanti.


Estratto da Infanzia Algoritmica: Intelligenza Artificiale, Minori e Salute di Giuseppe Siciliani Disponibile su Amazon