L'AI literacy: costruire difese cognitive nei minori

Perché l’AI literacy è diversa dalla digital literacy

L’alfabetizzazione all’AI (AI literacy) rappresenta un’evoluzione qualitativa rispetto alla digital literacy tradizionale. Mentre la digital literacy si concentra sull’uso competente degli strumenti digitali, l’AI literacy richiede la comprensione dei meccanismi che rendono l’AI diversa da qualsiasi tecnologia precedente: la capacità di generare contenuti originali, di adattarsi alle preferenze dell’utente, di simulare empatia e reciprocità, e di produrre contenuti sintetici indistinguibili dalla realtà.

Come evidenziato dal Parlamento Europeo, l’AI literacy è attualmente insegnata più comunemente nelle scuole secondarie e nelle università che nelle scuole primarie. Tuttavia, i dati mostrano che i bambini già dalla prima infanzia interagiscono con sistemi AI (assistenti vocali, giocattoli interattivi, algoritmi di raccomandazione). La Commissione Europea e l’OCSE stanno lavorando a un framework di AI literacy la cui versione finale è prevista nel 2026, ma l’urgenza richiede che le scuole non attendano il documento ufficiale per iniziare ad agire.

Un curriculum progressivo: dalla scuola dell’infanzia all’università

Sulla base delle evidenze raccolte in questa analisi, proponiamo un modello di curriculum progressivo di AI literacy articolato in cinque fasi evolutive. Nella scuola dell’infanzia (3-5 anni), l’obiettivo è la distinzione tra “vero” e “finto” applicata ai contenuti digitali, e la comprensione che gli assistenti vocali non sono “persone”. Nella scuola primaria (6-10 anni), si introduce il concetto di algoritmo come insieme di regole, si esplora come i suggerimenti dello schermo non sono “neutrali”, e si sviluppano le basi del pensiero critico digitale.

Nella scuola secondaria di primo grado (11-13 anni), il curriculum affronta i deepfake e la manipolazione dei media, i meccanismi di dipendenza digitale, la privacy e la protezione dei dati personali, e i bias algoritmici. Nella scuola secondaria di secondo grado (14-18 anni), si approfondiscono le implicazioni etiche dell’AI, il quadro normativo (AI Act, COPPA, DSA), le relazioni parasociali con l’AI, e le strategie di difesa dalla sextortion e dal cyberbullismo deepfake. All’università, il focus si sposta sull’integrità accademica nell’era dell’AI, sulla progettazione etica e centrata sull’utente, e sull’impatto sociale dell’AI.

Il co-apprendimento genitore-figlio

Come suggerito dalla Prof.ssa Ying Xu di Harvard, il “co-learning” con i propri figli è essenziale man mano che gli strumenti AI continuano a evolversi. Questo approccio richiede che i genitori non si pongano come controllori dall’esterno, ma come compagni di esplorazione, imparando insieme ai figli a navigare le potenzialità e i rischi dell’AI. Il rapporto Internet Matters evidenzia che i genitori che partecipano attivamente all’uso dell’AI da parte dei figli sono in una posizione significativamente migliore per individuare segnali di dipendenza o esposizione a contenuti inappropriati.

L’Obesity Medicine Association sottolinea un principio analogo nel contesto della salute fisica: quando i genitori si impegnano attivamente in abitudini sane insieme ai propri figli, non solo rafforzano i propri valori ma costruiscono anche un senso condiviso di responsabilità e incoraggiamento all’interno del nucleo familiare. Lo stesso principio si applica all’AI literacy: dimostrando costantemente l’importanza di un uso consapevole della tecnologia, i genitori mettono i propri figli nelle condizioni di fare scelte informate e positive.

Oltre l’educazione: il design come prima linea di difesa

L’UNESCO sottolinea che l’educazione da sola non è sufficiente. I sistemi AI devono essere progettati fin dall’inizio per proteggere i minori, non come aggiunta a posteriori. Il documento UNESCO propone una “visione utopica ma necessaria”: un sistema regolatorio che richieda ai bot educativi di essere amichevoli ma professionali e di mantenere confini rigorosi, esattamente come farebbe un insegnante umano. I bot companion devono avere guardrail che prevengano il sorgere di attaccamenti parasociali problematici.

La Dichiarazione ONU del gennaio 2026 sancisce questo principio in modo chiaro: i sistemi di raccomandazione guidati dall’AI devono essere progettati per non servire ai bambini contenuti dannosi e per prevenire attaccamenti emotivi malsani. La sfida implementativa è enorme: come progettare un sistema sufficientemente coinvolgente da essere utile ma non così coinvolgente da creare dipendenza? Come bilanciare la personalizzazione che rende l’AI educativa efficace con i rischi della personalizzazione che crea attaccamento? Queste domande definiscono la frontiera della ricerca e del design etico per i prossimi anni.


Estratto da Infanzia Algoritmica: Intelligenza Artificiale, Minori e Salute di Giuseppe Siciliani Disponibile su Amazon