Il bias sistematico dell'AI nella medicina pediatrica
Il dato che cambia tutto: meno dell’1% nei dataset di imaging
Una revisione sistematica pubblicata su medRxiv nel 2025, che ha analizzato 181 dataset pubblici di imaging medico, ha rivelato un dato scioccante: i bambini rappresentano meno dell’1% dei dati disponibili. Questo divario è tanto più grave se si considera che la maggior parte degli articoli pubblicati alle conferenze di machine learning per l’imaging medico utilizza dati pubblicamente disponibili per lo sviluppo dei metodi. Il risultato è un circolo vizioso: i modelli vengono addestrati su dati adulti, validati su dati adulti, e poi applicati — spesso senza adeguata validazione — a pazienti pediatrici.
Le conseguenze cliniche sono concrete e misurabili. Lo studio dimostra che i modelli di radiografia toracica addestrati su adulti mostrano un significativo bias d’età quando applicati a popolazioni pediatriche, con tassi di falsi positivi più elevati. I pazienti più giovani sono quelli che affrontano il rischio più alto di diagnosi errata. Come osserva il Dr. Bimal Desai, vicepresidente e chief health informatics officer al Children’s Hospital of Philadelphia, l’AI per la pediatria presenta sfide peculiari nelle previsioni cliniche e nella diagnostica, poiché i bambini crescono e cambiano nel tempo. Richiede un set di dati di addestramento più ampio e diversificato per rappresentare fedelmente tutte le età e le fasi dello sviluppo infantile. Per esempio, le fratture nei bambini piccoli appaiono diverse da quelle degli adolescenti o degli adulti.
Solo il 17% dei dispositivi AI approvati dalla FDA è per uso pediatrico
Un’analisi dei dispositivi medici AI/ML approvati dalla FDA condotta da ricercatori del npj Digital Medicine (2025) rivela che solo il 17% è etichettato per uso pediatrico. La dominanza della radiologia nelle approvazioni indica che altre specialità pediatriche sono ancora più sottorappresentate. Questo gap regolatorio è il riflesso diretto del gap nei dati: senza dataset pediatrici adeguati, le aziende non possono sviluppare, validare e ottenere l’approvazione per dispositivi specificamente progettati per i bambini.
Le barriere economiche e regolatorie allo sviluppo di dispositivi medici e farmaci per uso pediatrico sono ben documentate: la rarità di alcune patologie pediatriche porta a campioni ridotti, reclutamento difficile dei pazienti e costi di sviluppo elevati. Gli studi clinici pediatrici richiedono standard più rigorosi per il consenso, la sicurezza e l’efficacia. Mentre le modifiche nelle politiche pubbliche hanno fortemente incoraggiato lo sviluppo di farmaci e dispositivi pediatrici, cambiamenti politici analoghi non hanno ancora raggiunto l’AI medica né incoraggiato la raccolta di dati pediatrici.
Il framework ACCEPT-AI: principi per l’uso etico dei dati pediatrici
Di fronte a queste sfide, la comunità scientifica ha sviluppato il framework ACCEPT-AI, pubblicato su npj Digital Medicine, un insieme di principi e raccomandazioni chiave per l’utilizzo dei dati pediatrici e la valutazione del bias algoritmico legato all’età nella ricerca AI/ML. Il framework è progettato per essere utilizzato in modo indipendente per sostenere gli standard etici, o come integrazione aggiuntiva alle linee guida esistenti come CONSORT-AI, SPIRIT-AI e le emergenti TRIPOD-AI, PROBAST-AI, STARD-AI e QUADAS-AI.
ACCEPT-AI identifica tre fonti principali di bias algoritmico legato all’età che colpiscono i bambini: la mancanza di trasparenza nella segnalazione dell’età dei partecipanti, la mancanza di rappresentazione clinicamente e evolutivamente appropriata dei bambini nei dataset, e le generalizzazioni inappropriate fatte dalla popolazione adulta a quella pediatrica e viceversa. Il framework propone checkpoint specifici per la valutazione del bias in ogni fase del ciclo di vita dell’AI, dallo sviluppo al deployment post-commercializzazione.
L’AI per l’equità diagnostica: il caso dell’autismo
Uno degli ambiti in cui l’AI potrebbe contribuire positivamente è la riduzione delle disparità diagnostiche in pediatria. I dati sulle disparità nella diagnosi dell’autismo sono eloquenti: rispetto ai coetanei bianchi, i bambini ispanici e neri hanno rispettivamente il 65% e il 19% di probabilità in meno di ricevere una diagnosi di autismo, e queste disparità razziali ed etniche esistono indipendentemente dalla classe economica. Analogamente, le ragazze ricevono una diagnosi di autismo in media 1,5 anni dopo rispetto ai ragazzi. I bambini delle comunità rurali sperimentano anch’essi ritardi nella diagnosi e problemi di accesso.
L’AI potrebbe contribuire ad affrontare alcuni di questi bias promuovendo l’equità diagnostica in diversi modi. Il bias a livello di singoli item, rilevato in alcuni strumenti diagnostici e di screening esistenti, potrebbe essere ridotto attraverso un addestramento accurato di alternative diagnostiche basate su AI su grandi campioni di dati accuratamente etichettati e diversificati per genere e razza. Uno studio pubblicato su Communications Medicine nel febbraio 2026 ha analizzato circa 20.000 casi di ansia pediatrica al Cincinnati Children’s Hospital, implementando un framework di de-biasing che ha ridotto le disparità diagnostiche legate al genere fino al 27%.
Tuttavia, l’altra faccia della medaglia è altrettanto reale: senza campionamento attento e equo, gli algoritmi possono potenzialmente perpetuare piuttosto che ridurre i bias. Anche quando questo rischio è mitigato addestrando gli algoritmi AI su una base di pazienti diversificata, il bias può ancora verificarsi a livello di etichettatura dei dati, perché l’algoritmo potrebbe “apprendere” dai bias impliciti degli esseri umani che annotano i dati di input o validano le classificazioni in output.
La governance dell’AI pediatrica: un campo ancora vergine
Un articolo pubblicato nel 2025 su npj Digital Medicine, intitolato “Toward governance of artificial intelligence in pediatric healthcare”, fornisce la prima analisi sistematica delle lacune nella governance dell’AI specifica per la pediatria. Gli autori identificano quattro gap principali: coinvolgimento insufficiente degli stakeholder, consenso e assenso evolutivamente appropriati, mitigazione limitata del bias, e accountability poco chiara.
La questione del consenso è particolarmente complessa in pediatria. Come osserva Teresa Tonthat, vicepresidente e associate CIO del Texas Children’s Hospital, la maggior parte dei bambini non è abbastanza grande per fornire il consenso sull’uso dell’AI generativa per la propria diagnosi o trattamento, quindi sono i genitori o i tutori a doverlo fornire. Ma il consenso parentale è realmente “informato” quando la maggior parte dei genitori non comprende come funzionano i sistemi AI?
L’ospedale ha istituito un comitato di governance e steering sull’AI che garantisce che tutti i risultati dei modelli AI richiedano un “umano nel mezzo” per verificare le informazioni prima di prendere decisioni sui pazienti. Il comitato affronta anche le preoccupazioni relative ai requisiti normativi, al bias e alle allucinazioni dell’AI. Un aspetto ulteriore di complessità riguarda la privacy dell’adolescente: come nota Desai, gli strumenti AI non dovrebbero automaticamente permettere ai genitori di ottenere informazioni sui farmaci che l’adolescente ha ricevuto durante una visita confidenziale. Questo requisito di rispettare le leggi sulla privacy adolescenziale aggiunge un livello di complessità che gli strumenti AI progettati per adulti non sono attrezzati ad affrontare.
Estratto da Infanzia Algoritmica: Intelligenza Artificiale, Minori e Salute di Giuseppe Siciliani Disponibile su Amazon