Oxford, Cambridge e il monito europeo
Lo studio di Oxford: le tre lacune fondamentali
I ricercatori dell’Università di Oxford hanno lanciato un allarme tanto chiaro quanto preoccupante: l’etica dell’AI sta ignorando i bambini. Il loro studio identifica tre lacune fondamentali nel modo in cui il campo dell’etica dell’AI affronta (o non affronta) le questioni relative ai minori.
La prima lacuna riguarda le valutazioni: esistono troppe poche valutazioni centrate sui bambini che considerino il loro superiore interesse e i loro diritti. Le valutazioni quantitative sono la norma quando si esaminano questioni come la sicurezza e la salvaguardia nei sistemi AI, ma queste tendono a essere inadeguate quando si considerano fattori come i bisogni evolutivi e il benessere a lungo termine dei bambini. Un bambino non è un utente adulto in miniatura: i suoi bisogni, le sue vulnerabilità e i suoi diritti richiedono strumenti di valutazione specifici che attualmente non esistono o sono gravemente sottosviluppati.
La seconda lacuna riguarda la coordinazione: c’è un’assenza di un approccio coordinato, cross-settoriale e cross-disciplinare alla formulazione di principi etici dell’AI per i bambini che siano necessari per produrre cambiamenti pratici significativi. Neuropsicologi, pediatri, giuristi, educatori, informatici, eticisti e i bambini stessi dovrebbero lavorare insieme, ma nella realtà operano in silos disciplinari che impediscono una visione integrata.
La terza lacuna, forse la più paradossale, riguarda il divario tra protezione e progettazione. I ricercatori di Oxford hanno scoperto che sebbene l’AI venga utilizzata per proteggere i bambini online, tipicamente identificando contenuti inappropriati, c’è stata una mancanza di iniziativa per incorporare principi di salvaguardia nelle innovazioni AI, incluse quelle supportate da modelli linguistici di grandi dimensioni. In altre parole: l’AI viene usata come strumento di protezione a valle, ma i principi di protezione non vengono incorporati nella progettazione a monte. È come mettere un guardrail alla fine di una strada pericolosa invece di raddrizzare la curva.
Cambridge: l’AI Act protegge davvero i bambini?
Il Centre for Digital Governance dell’Università di Cambridge ha pubblicato un’analisi critica che mette in discussione l’efficacia dell’AI Act europeo nella protezione dei minori. Lo studio, condotto da Kurian nel 2024 come parte della serie del Centre for the Future of Intelligence (CFI), esamina specificamente quanto bene il regolatore europeo stia proteggendo bambini e giovani. L’analisi evidenzia che gli obblighi di trasparenza previsti dall’AI Act costituiscono una “falsa promessa” quando si tratta di affrontare la minaccia della disinformazione e dell’abuso sessuale basato su immagini attraverso deepfake.
La critica di Cambridge si inserisce in un dibattito più ampio sulla vulnerabilità dei bambini nel quadro dell’AI Act. Come analizzato dal progetto SoBigData.eu, il concetto di vulnerabilità all’interno dell’AI Act è centrale ma non sufficientemente sviluppato in relazione ai minori. Il regolamento enfatizza la protezione dei gruppi vulnerabili, ma la traduzione di questo principio in obblighi concreti e verificabili rimane lacunosa. Malgieri dell’Oxford University Press ha offerto una panoramica del concetto di vulnerabilità umana nell’AI Act, mentre Lindroos-Hovinheimo dell’European Law Blog ha posto direttamente la domanda: il legislatore europeo sta facendo abbastanza?
Il JRC e il Parlamento Europeo: i bambini di 7 anni e la “mente” dell’AI
Il Joint Research Centre (JRC) della Commissione Europea ha pubblicato lo studio “Artificial Intelligence and the Rights of the Child”, sottolineando che la comunità scientifica e politica ha appena iniziato a considerare i rischi e le opportunità specifiche che l’AI porta per i diritti dei bambini. Il briefing del Parlamento Europeo su “Children and Generative AI” (febbraio 2025) cita un dato neuroscientificamente cruciale: uno studio del MIT Media Lab ha dimostrato che i bambini di 7 anni tendono ad attribuire sentimenti reali e personalità agli agenti AI.
Questa scoperta ha implicazioni profonde per tutto il framework teorico della nostra analisi. Se bambini di soli sette anni attribuiscono stati mentali ed emotivi all’AI, allora le preoccupazioni sulle relazioni parasociali, sull’attaccamento emotivo e sul grooming AI-assistito non sono rischi futuri ma realtà presenti che operano già a livelli cognitivi più profondi di quanto molti adulti comprendano. Un bambino che crede che il chatbot abbia sentimenti è un bambino vulnerabile alla manipolazione in modi che un adulto, capace di mantenere la distinzione tra artificiale e umano, non è.
Il Parlamento Europeo sottolinea che i bambini sono particolarmente vulnerabili ai contenuti sintetici come i deepfake e, a causa delle loro abilità cognitive ancora in via di sviluppo, possono essere manipolati più facilmente. Questo non è un giudizio sulla capacità intellettiva dei bambini, ma un riconoscimento scientifico del fatto che la corteccia prefrontale — sede delle funzioni esecutive, del giudizio critico e della distinzione tra realtà e finzione — non raggiunge la piena maturazione fino ai 25 anni circa.
Estratto da Infanzia Algoritmica: Intelligenza Artificiale, Minori e Salute di Giuseppe Siciliani Disponibile su Amazon