I bambini come ricercatori: comprendere i bias algoritmici
Lo studio finlandese: i bambini possono capire i bias dell’AI
Una ricerca innovativa di Vartiainen, Kahila, Tedre, López-Pernas e Pope, pubblicata su New Media & Society nel 2025, ha esplorato come facilitare la comprensione dei bias algoritmici da parte dei bambini e dei giovani nell’AI generativa testo-immagine. Lo studio ha chiesto ai bambini di interagire con sistemi AI e di analizzare criticamente gli output pregiudicati, ad esempio immagini di calciatori generate dall’AI che raffiguravano sistematicamente uomini.
I risultati del pre-test hanno rivelato un dato illuminante: solo il 7,1% dei bambini forniva inizialmente spiegazioni basate sui dati per i bias osservati. La maggioranza (38,8%) non forniva alcuna spiegazione, mentre il 35,7% attribuiva i bias al pensiero umano e alle disuguaglianze sociali, senza collegamento con i dati di addestramento. Tuttavia, dopo l’intervento educativo, la comprensione migliorava significativamente: i bambini iniziavano a collegare i bias dell’AI ai dataset di addestramento e ai processi di raccolta dati.
Lo studio dimostra due cose fondamentali. Primo: i bambini applicano le proprie concezioni preesistenti per dare senso ai bias algoritmici, attingendo dalla propria comprensione dei pregiudizi nella società. Secondo: con un intervento educativo appropriato, anche bambini della scuola primaria possono sviluppare una comprensione sofisticata dei meccanismi attraverso cui i bias entrano nei sistemi AI. Questo è un risultato cruciale per la progettazione dei curricoli di AI literacy: non si tratta di insegnare nozioni astratte, ma di costruire su ciò che i bambini già sanno sulla giustizia e sull’ingiustizia.
Dalla protezione alla partecipazione: i bambini come co-designer dell’AI
La Dichiarazione ONU del gennaio 2026 sancisce il principio che i bambini devono partecipare significativamente alla progettazione delle politiche AI. Ma questo principio può essere esteso ulteriormente: i bambini possono essere coinvolti nella progettazione dei sistemi AI stessi. La rivista Lancet Digital Health ha pubblicato un editoriale sostenendo che i bambini devono co-progettare la ricerca sulla salute digitale. Lo studio di Thai e colleghi su JAMA Network Open (2023) ha documentato le prospettive dei giovani sull’uso etico dell’AI nella ricerca e nella cura clinica.
Questo passaggio — da bambini come oggetti di protezione a bambini come agenti di cambiamento — è forse la trasformazione più profonda proposta dalla letteratura recente. Il concetto dei “principi POWER” (Participatory, Open, Well-being-centered, Ethical, Responsible) proposto da Chen nell’ambito dell’AI per la prima infanzia offre un framework operativo per questa transizione. I bambini non sono semplicemente utenti finali o soggetti di studio: sono stakeholder con prospettive uniche che possono rivelare problemi e opportunità invisibili agli adulti.
AP Investigation / Ho, S. & Burke, G. “Child Welfare Algorithm Faces Justice Department Scrutiny.” AP News, Gennaio 2023.
Ave Maria School of Law. “A Look at Child Welfare in the Digital Age.” 2024.
British Journal of Sociology of Education. “Disabling AI: power, exclusion, and disability.” 2025.
CASCW (University of Minnesota). “Child Welfare Intelligence? Opportunities and Challenges of AI Tools.” CW360, Spring 2025.
Center for Global Development. “Three Reasons Why AI May Widen Global Inequality.” 2025.
Chen, J.J. et al. “AI and the developing child: ethical and conceptual considerations.” AI, Brain and Child (Springer), 2025.
CSIS. “From Divide to Delivery: How AI Can Serve the Global South.” 2025.
El Morr, C. et al. “AI and disability: A systematic scoping review.” SAGE, 2024.
Global Digital Inclusion Partnership. “AI for the Global Majority: The Digital Divide No One’s Talking About!” 2025.
Holmes, W. “AI, education, and children’s rights.” Frontiers in Education, 2025.
ISACA. “Why Stopping at Gender and Race Makes AI Bias Worse.” 2025.
ScienceDirect / Computers and Education: AI. “Fostering responsible AI literacy: A systematic review of K-12 AI ethics education.” 2025.
Thai, K. et al. “Perspectives of youths on ethical use of AI in health care.” JAMA Network Open, 2023.
UNICEF Digital Impact. “AI divide: A new fault line we cannot ignore.” 2025.
Vartiainen, H. et al. “Enhancing children’s understanding of algorithmic biases in text-to-image generative AI.” New Media & Society, 2025.
WEF / UNICEF. “Can AI transform learning for marginalized communities?” 2023.
Estratto da Infanzia Algoritmica: Intelligenza Artificiale, Minori e Salute di Giuseppe Siciliani Disponibile su Amazon