Dalla ricerca accademica al campo: tesi, dissertazioni e studi comparativi

La tesi magistrale Italia-Emirati Arabi Uniti: uno studio comparativo rivelatore

Una tesi di laurea magistrale in Sociologia e Ricerca Sociale (anno accademico 2024-2025), disponibile su ResearchGate, offre un contributo empirico originale al nostro campo con uno studio comparativo tra Italia ed Emirati Arabi Uniti sul ruolo dell’AI nella transizione dall’adolescenza all’età adulta. La ricerca, condotta con metodologia mista (metanalisi, dati quantitativi istituzionali, interviste semi-strutturate e focus group con adolescenti di 15-18 anni), ha documentato risultati particolarmente rilevanti per il contesto italiano.

I focus group condotti in Italia (Caserta e Forlì) rivelano un quadro sfumato: gli studenti utilizzano l’AI come finestra su possibilità prima inimmaginabili, ma emergono forti preoccupazioni per il futuro e disuguaglianze sociali. Il divario Nord-Sud nella digitalizzazione mostra differenze fino al 37% nell’accesso a servizi digitali avanzati, secondo dati ISTAT 2023. L’Italia investe l’1,48% del PIL in ricerca e sviluppo tecnologica contro una media UE del 2,3%, creando quello che la tesi definisce un “digital lag generazionale”: un ritardo strutturale che impatta direttamente sulle opportunità dei giovani italiani. La tesi include inoltre un caso studio sui “Minori Influencer e IA” basato su osservazioni al Dubai Mall, e un’analisi dell’impatto cognitivo dell’uso intensivo di AI in età evolutiva.

Il report arXiv: 15 esperti sul futuro dello sviluppo infantile nell’era AI

Un report interdisciplinare pubblicato su arXiv nel maggio 2024 da Neugnot-Cerioli e Muss Laurenty ha consultato 15 esperti provenienti da discipline pertinenti (AI, sviluppo prodotto, sviluppo infantile e neuroscienze) per esplorare le implicazioni potenziali dell’integrazione dell’AI negli ambienti dei bambini. Lo studio sottolinea il ruolo significativo dell’ambiente nel modellare la cognizione, le competenze socio-emotive e i comportamenti, soprattutto durante i primi 25 anni di sviluppo cerebrale. La mielinizzazione — l’isolamento delle fibre nervose che velocizza la trasmissione degli impulsi — non si completa fino alla metà della terza decade, il che significa che l’esposizione all’AI durante tutto il periodo dell’infanzia, dell’adolescenza e della prima età adulta avviene in un cervello ancora in via di maturazione.

Il co-design con i bambini: la review UTS Sydney

Una review pubblicata su Current Developmental Disorders Reports da ricercatori dell’University of Technology Sydney (UTS) nell’ottobre 2025 esamina specificamente il co-design di applicazioni AI generativa per la salute mentale di bambini e giovani. Lo studio ha identificato approcci unici al co-design, incluse collaborazioni multi-stakeholder con organizzazioni come UNICEF e sviluppatori tecnologici, che non solo hanno migliorato la scalabilità ma hanno anche garantito la rilevanza culturale degli interventi. In uno studio, l’apprendimento dell’AI è stato incorporato nel co-design, consentendo al chatbot di adattarsi in tempo reale in base all’input dell’utente. I risultati mostrano alti livelli di soddisfazione degli utenti, con i partecipanti che apprezzano il modo in cui il loro contributo ha plasmato i prodotti finali.

Il bias razziale pediatrico: dal calcolatore UTI alla spirometria

La letteratura sulle disparità algoritmiche in sanità offre casi specifici che riguardano direttamente i bambini. Il calcolatore del rischio di infezione del tratto urinario (UTI) in pediatria — che stima il rischio per bambini di 2-23 mesi — utilizza una correzione razziale che assegna un punteggio più basso se il bambino è nero, con un rischio stimato circa 2,5 volte superiore se non nero, risultando in un’aumentata mancata diagnosi nei bambini neri che presentano segni di UTI. I test di funzionalità polmonare utilizzano fattori di correzione razziale del 10-15% per i pazienti neri, producendo stime imprecise della funzione polmonare. Come documentato da un panel guidato dalla Yale School of Medicine, gli algoritmi distorti richiedono alle minoranze razziali o etniche di essere considerevolmente più malate dei loro corrispettivi bianchi per ricevere la stessa diagnosi, trattamento o risorse. La revisione sistematica della ENASE 2025 conferma che il bias si manifesta attraverso l’intero ciclo di vita dell’AI, dalla raccolta dati all’addestramento dei modelli all’applicazione nel mondo reale.


Estratto da Infanzia Algoritmica: Intelligenza Artificiale, Minori e Salute di Giuseppe Siciliani Disponibile su Amazon