2026 e oltre: scenari futuri e raccomandazioni finali

Le tendenze tecnologiche: cosa aspettarsi

Il Prof. Siwei Lyu dell’Università di Buffalo prevede che nel 2026 i deepfake diventeranno “performer sintetici” capaci di reagire alle persone in tempo reale. La clonazione vocale ha già superato la soglia dell’indistinguibilità, e le capacità video stanno rapidamente convergendo verso lo stesso traguardo. I companion AI diventeranno più sofisticati, più emotivamente convincenti e più difficili da distinguere da interlocutori umani. L’integrazione dell’AI nei dispositivi indossabili, negli ambienti domestici e nei giocattoli connessi estenderà l’esposizione dei minori ben oltre lo schermo dello smartphone.

Le tendenze normative: verso una governance coordinata

Il 2026 segna un punto di svolta nella governance globale dell’AI per i minori. La Dichiarazione ONU di gennaio 2026 fornisce per la prima volta un framework unificato. L’enforcement del TAKE IT DOWN Act (scadenza compliance maggio 2026), dell’aggiornamento COPPA (scadenza aprile 2026) e del Colorado AI Act (giugno 2026) creeranno i primi precedenti applicativi. L’UE procederà con l’enforcement progressivo dell’AI Act. Il Wallet Europeo di Identità Digitale previsto per il 2026 potrebbe rivoluzionare la verifica dell’età. Nature ha pubblicato un editoriale a fine 2025 intitolato “Let 2026 be the year the world comes together for AI safety”, osservando che le tecnologie AI devono essere sicure e trasparenti e che ci sono pochi o nessun beneficio nell’essere al di fuori degli sforzi per raggiungere questo obiettivo.

I movimenti dal basso: il ruolo dei genitori e della società civile

Un fenomeno significativo del 2025-2026 è stata l’emergenza di movimenti organizzati di genitori e società civile che hanno contribuito in modo decisivo a portare il tema nell’agenda politica. Mothers Against Media Addiction (MAMA), ParentsTogether Action, la Transparency Coalition, Common Sense Media e 5Rights Foundation hanno svolto un ruolo catalizzatore. Come ha dichiarato James P. Steyer, fondatore di Common Sense Media, i giochi online che i bambini usano e le piattaforme di social media su cui trascorrono ore e ore al giorno sono diventati terreni di caccia per i predatori. I bambini e gli adolescenti hanno bisogno di queste nuove protezioni ora più che mai.

Le 10 raccomandazioni finali del volume

Sulla base dell’analisi condotta in questa analisi, formuliamo dieci raccomandazioni operative destinate ai diversi attori coinvolti nella protezione dei minori nell’era dell’AI.

  1. Safety before deployment: nessun sistema AI dovrebbe interagire con minori senza test rigorosi di sicurezza condotti prima del rilascio, non dopo. Questo principio, sancito dalla Dichiarazione ONU 2026, deve diventare norma vincolante.

  2. Child Rights Impact Assessment obbligatorio: ogni sistema AI suscettibile di interagire con minori deve essere sottoposto a una valutazione d’impatto sui diritti dei bambini, analogamente a quanto richiesto per le valutazioni d’impatto ambientale.

  3. Privacy e sicurezza by design: le impostazioni predefinite di qualsiasi piattaforma accessibile ai minori devono essere le più protettive possibili. La geolocalizzazione, il tracciamento, le notifiche push e le funzionalità che promuovono l’uso eccessivo devono essere disattivate per default.

  4. Verifica dell’età efficace e rispettosa della privacy: l’autocertificazione dell’età tramite casella di spunta è inadeguata. I sistemi di verifica devono essere robusti, accurati e non invasivi, come il Wallet Europeo di Identità Digitale previsto per il 2026.

  5. Responsabilità di prodotto per l’AI: i sistemi AI devono essere classificati come prodotti ai fini della responsabilità civile, con l’onere della prova di sicurezza a carico degli sviluppatori, non delle vittime.

  6. AI literacy nel curriculum scolastico dalla scuola primaria: l’alfabetizzazione AI non deve essere un optional per le scuole superiori, ma una competenza fondamentale insegnata fin dall’infanzia, includendo il riconoscimento dei deepfake, la protezione della privacy e il pensiero critico.

  7. Counseling sullo screen-time nelle visite pediatriche: il tempo-schermo e l’interazione con l’AI devono diventare argomenti standard nelle visite pediatriche di routine, alla stregua della dieta e dell’attività fisica.

  8. Criminalizzazione esplicita di tutte le forme di AI-CSAM: ogni stato deve criminalizzare esplicitamente la creazione, la distribuzione e il possesso di materiale di abuso sessuale su minori generato dall’AI, indipendentemente dal fatto che raffiguri bambini reali o sintetici.

  9. Co-apprendimento e dialogo familiare: i genitori devono essere formati e supportati nell’adottare un approccio di co-apprendimento con i figli, esplorando insieme le potenzialità e i rischi dell’AI piuttosto che delegare la supervisione alla tecnologia stessa.

  10. Partecipazione dei bambini nella governance dell’AI: come sancito dalla Dichiarazione ONU 2026, i punti di vista e le esperienze dei bambini devono informare in modo significativo la progettazione delle politiche AI. I bambini non sono oggetti di protezione, ma soggetti di diritto con voce propria.


Estratto da Infanzia Algoritmica: Intelligenza Artificiale, Minori e Salute di Giuseppe Siciliani Disponibile su Amazon