L'AI come consulente medico: rischi per le famiglie

Quando le famiglie chiedono diagnosi all’AI

Uno studio dell’Università di Oxford, pubblicato nel febbraio 2026 dall’Oxford Internet Institute e dal Nuffield Department of Primary Care Health Sciences, ha rivelato un divario significativo tra le promesse dei modelli linguistici di grandi dimensioni e la loro effettiva utilità per le persone in cerca di consulenza medica. Lo studio ha condotto un trial randomizzato con quasi 1.300 partecipanti, ai quali è stato chiesto di identificare potenziali condizioni di salute e azioni raccomandate sulla base di scenari medici personalizzati.

I risultati sono stati inequivocabili: i modelli che eccellevano nei test standardizzati di conoscenza medica mostravano difficoltà significative quando interagivano con persone reali. Come ha dichiarato la Dr.ssa Rebecca Payne, medico di base e ricercatrice principale dello studio, l’AI semplicemente non è pronta ad assumere il ruolo del medico. I pazienti devono essere consapevoli che chiedere a un modello linguistico di grandi dimensioni informazioni sui propri sintomi può essere pericoloso, producendo diagnosi errate e non riconoscendo quando è necessario un aiuto urgente.

Il Prof. Adam Mahdi dell’Oxford Internet Institute ha sottolineato che non possiamo affidarci ai soli test standardizzati per determinare se questi sistemi siano sicuri per l’uso pubblico. Così come richiediamo studi clinici per i nuovi farmaci, i sistemi AI necessitano di test rigorosi con utenti diversificati e reali. Questa riflessione è particolarmente rilevante per le famiglie con bambini, che potrebbero rivolgersi a chatbot AI per valutare sintomi pediatrici.

Il divario globale nell’AI pediatrica

Il problema assume dimensioni ancora più gravi in una prospettiva globale. Come evidenziato da una revisione narrativa pubblicata su PMC, il più grande carico di malattia nei bambini e nei giovani (CYP, Children and Young People) è concentrato nei paesi a basso e medio reddito (LMIC), ma gli sforzi applicativi di AI pediatrica esistenti sono concentrati in un piccolo numero di paesi ad alto reddito (HIC). Nei LMIC, i casi d’uso rimangono principalmente nella fase di proof-of-concept.

Questa disparità è aggravata dalle sfide specifiche della ricerca pediatrica: le complessità etiche e legali, le difficoltà logistiche e tecniche nello studio degli interventi medici nei bambini, e il finanziamento comparativamente inferiore della ricerca clinica pediatrica influenzano tutti la quantità e la qualità dei dataset di addestramento.


Estratto da Infanzia Algoritmica: Intelligenza Artificiale, Minori e Salute di Giuseppe Siciliani Disponibile su Amazon