Il dosaggio pediatrico e le allucinazioni dell'AI
Quando l’AI sbaglia i dosaggi: il rischio farmacologico
Uno studio di Levin, Orkaby, Kerner e Saban pubblicato su Pediatric Research nel 2025 ha indagato se i modelli linguistici di grandi dimensioni possano assistere nell’accuratezza del dosaggio pediatrico. La questione è critica perché il dosaggio farmacologico nei bambini è intrinsecamente più complesso che negli adulti: varia in funzione del peso corporeo, dell’età, dello stadio di sviluppo, della funzionalità epatica e renale, e di numerosi altri fattori. Un errore di dosaggio in un neonato o in un bambino piccolo può avere conseguenze fatali.
Un altro studio di Mansoor e colleghi su JMIRx Med (2025) ha confrontato le prestazioni di GPT-3 con quelle dei pediatri nelle diagnosi differenziali in contesti rurali. Lo studio multicenter retrospettivo ha rivelato risultati contrastanti che evidenziano sia il potenziale sia i limiti dell’AI nella diagnostica pediatrica, in particolare nelle aree dove l’accesso a specialisti è limitato.
Il rischio delle “allucinazioni” dell’AI — la generazione di informazioni plausibili ma false — è particolarmente pericoloso in contesto pediatrico. Un’AI che suggerisce con sicurezza un dosaggio farmacologico errato o una diagnosi infondata può ingannare sia i clinici sia i genitori. La questione è esacerbata dal fatto che in molti contesti a basso reddito, dove l’accesso ai pediatri è limitato, l’AI potrebbe essere vista come un sostituto piuttosto che come un supporto alla competenza medica umana.
Normativa
Estratto da Infanzia Algoritmica: Intelligenza Artificiale, Minori e Salute di Giuseppe Siciliani Disponibile su Amazon