Raccomandazioni operative dettagliate
Per i genitori: la guida pratica in 10 punti
Sulla base delle linee guida più aggiornate dell’AACAP (luglio 2025), del CHOP/Pediatrics (febbraio 2026), di SAIFCA (gennaio 2026) e del commissario eSafety australiano (gennaio 2026), formuliamo dieci raccomandazioni pratiche per i genitori.
Primo: parlare apertamente dell’AI con i propri figli, adottando un approccio di co-apprendimento. Non si tratta di demonizzare la tecnologia, ma di esplorarla insieme, discutendo limiti, rischi e opportunità. Secondo: supervisionare direttamente l’uso dell’AI da parte dei bambini più piccoli (sotto i 10 anni), preferibilmente in spazi familiari condivisi. Terzo: disattivare la modalità memoria nei chatbot AI utilizzati dai minori, come raccomandato da SAIFCA. Quarto: non permettere l’uso di companion AI a soggetti sotto i 18 anni, in linea con la raccomandazione SAIFCA di nessun uso per chi non ha raggiunto la maggiore età.
Quinto: limitare il tempo-schermo ricreativo, tenendo presente l’evidenza COPSAC che il rischio cardiometabolico è già misurabile a 10 anni, e che l’interazione screen-time/sonno breve moltiplica il rischio. Sesto: stabilire una “parola d’ordine” familiare per le emergenze, come difesa contro le truffe di rapimento virtuale basate su voice cloning. Settimo: ridurre drasticamente la condivisione di foto e video dei propri figli sui social media (sharenting), poiché ogni contenuto può essere utilizzato per deepfake e nudifying.
Ottavo: riconoscere i segnali di dipendenza dall’AI nei propri figli: isolamento sociale crescente, uso notturno dei dispositivi, reazioni emotive intense quando l’accesso viene limitato, riduzione del rendimento scolastico, e un linguaggio che attribuisce qualità umane al chatbot. Nono: se si sospetta una dipendenza emotiva consolidata, non ritirare improvvisamente l’accesso ma consultare un professionista della salute mentale per un piano di ritiro graduale. Decimo: insegnare ai figli come funziona la clonazione vocale e i deepfake, mostrando esempi concreti, per sviluppare anticorpi cognitivi contro la manipolazione.
Per gli educatori: trasformare il rischio in competenza
Le scuole si trovano in una posizione critica: sono contemporaneamente il luogo dove i danni dell’AI si manifestano più visibilmente (cyberbullismo deepfake, cheating) e il luogo dove la formazione può avere l’impatto più grande. Le raccomandazioni per gli educatori si articolano su tre livelli.
A livello di politiche scolastiche: aggiornare urgentemente i codici di condotta per includere esplicitamente i deepfake, il nudifying, l’uso improprio dell’AI generativa per i compiti, e le relazioni parasociali con i chatbot. Sviluppare protocolli di intervento specifici per gli incidenti di cyberbullismo deepfake, che riconoscano la vittima e non la puniscano per la propria reazione emotiva (come nel caso della Louisiana). Formare tutto il personale scolastico sui rischi dell’AI per i minori: come osserva Hinduja, gli studenti non devono pensare che gli educatori siano completamente ignari.
A livello di curriculum: integrare l’AI literacy come competenza trasversale in tutte le discipline, non come materia isolata. Dalla scuola primaria, insegnare la distinzione tra contenuto reale e sintetico. Dalla secondaria, affrontare esplicitamente deepfake, privacy, bias algoritmici, e relazioni parasociali. Riprogettare le valutazioni spostandole dalla conoscenza nozionistica alla competenza applicativa: le scuole che lo hanno fatto riportano il 40% in meno di problemi di integrità legati all’AI.
A livello di supporto: creare canali sicuri e non giudicanti affinché gli studenti possano segnalare abusi deepfake, tentativi di sextortion, e situazioni di disagio legate all’AI. Collaborare con professionisti della salute mentale per supportare le vittime. Coinvolgere i genitori attraverso sessioni informative regolari, colmando il divario di consapevolezza documentato (solo il 37% dei genitori sa che i propri figli usano AI generativa).
Per i pediatri: lo screen-time come quinto parametro vitale
Lo studio COPSAC pubblicato su JAHA nel 2025 suggerisce che il riconoscimento e la discussione delle abitudini legate allo schermo durante le visite pediatriche potrebbero diventare parte di un counseling più ampio sullo stile di vita, analogamente a quanto si fa per la dieta o l’attività fisica. Le raccomandazioni per i pediatri includono: inserire domande sullo screen-time e sull’interazione con l’AI nei questionari di routine delle visite di controllo; valutare i segnali di dipendenza digitale con la stessa attenzione dedicata ad altri indicatori di rischio comportamentale; consigliare le famiglie sui limiti di età per l’uso dei companion AI; segnalare il rischio specifico delle interazioni notturne con chatbot AI per il sonno e la salute metabolica.
I pediatri sono in una posizione privilegiata per essere “sentinelle” del benessere digitale dei minori. Come sottolinea lo studio del CHOP su Pediatrics (2026), un’implementazione cauta e responsabile è cruciale per prevenire danni non intenzionali. Le limitazioni attuali degli LLM suggeriscono che la loro applicazione clinica diffusa in pediatria potrebbe essere ancora prematura, e i pediatri sono nella posizione migliore per guidare questa adozione con prudenza.
Per i legislatori: checklist per una normativa efficace
Sulla base dell’analisi comparativa delle normative globali condotta in questa analisi, proponiamo una checklist di 8 elementi che ogni quadro normativo efficace dovrebbe includere: obbligo di safety testing pre-deployment per qualsiasi sistema AI accessibile ai minori; verifica dell’età robusta e rispettosa della privacy (non semplice autocertificazione); privacy by design e safety by design come requisiti non negoziabili; child rights impact assessment obbligatorio; obbligo di rimozione entro 48 ore per contenuti NCII e AI-CSAM (modello TAKE IT DOWN Act); criminalizzazione esplicita della creazione, distribuzione e possesso di AI-CSAM; classificazione dei sistemi AI come prodotti ai fini della responsabilità civile (modello AI LEAD Act); e meccanismi di partecipazione dei minori nella progettazione delle politiche.
Per l’industria tecnologica: i 5 principi del design etico
Le aziende tecnologiche portano una responsabilità primaria. I dati emersi in questa analisi — dal tasso di fallimento del 66,8% di Meta AI Studio, alla generazione di immagini sessualizzate di bambini da parte di Grok, al grooming documentato su Character.AI — dimostrano che l’autoregolamentazione ha fallito. Proponiamo cinque principi vincolanti: test before deploy (nessun sistema che interagisce con minori senza test di sicurezza rigorosi e documentati); transparency by default (trasparenza algoritmica e reportistica pubblica sugli incidenti); child-centered design (progettazione che consideri le esigenze dei minori dall’inizio, non come aggiunta); human oversight always (un essere umano nel circuito decisionale per qualsiasi interazione ad alto rischio); economic accountability (le aziende devono internalizzare i costi dei danni, non esternalizzarli sulla società).
CRONOLOGIA DEGLI EVENTI CHIAVE (2022–2026)
Estratto da Infanzia Algoritmica: Intelligenza Artificiale, Minori e Salute di Giuseppe Siciliani Disponibile su Amazon