L'abilismo algoritmico: AI e bambini con disabilità

La marginalizzazione algoritmica dei bambini neurodivergenti

Un articolo pubblicato su British Journal of Sociology of Education nel 2025 esplora in profondità come le tecnologie AI nell’educazione riproducano disuguaglianze sistemiche incorporando assunzioni abiliste e normative nel loro design e nel loro utilizzo. Gli autori sviluppano il concetto di “marginalizzazione algoritmica”, sintetizzando le teorie dell’intersezionalità con gli studi critici sulla tecnologia: una lente teorica che rivela come i sistemi AI esacerbino le forme di oppressione esistenti attraverso l’interazione di dataset pregiudicati, algoritmi discriminatori e strutture di potere istituzionali.

Il modello sociale della disabilità sottolinea come siano le barriere sociali e le attitudini, piuttosto che le menomazioni individuali, a creare condizioni disabilitanti. Applicato all’AI, questo principio rivela come gli algoritmi educativi operino come architetti invisibili del panorama tecnologico, modellando attivamente le esperienze e le opportunità educative sulla base delle proprie assunzioni codificate riguardo all’apprendimento, all’abilità e al successo.

I danni causati dai modelli linguistici di grandi dimensioni e da altri sistemi AI impattano in modo sproporzionato le persone con disabilità attraverso diversi meccanismi: output inaccessibili, perpetuazione di stereotipi e effetti ambientali che esacerbano l’oppressione esistente. Ad esempio, il bias nei dati di addestramento e negli algoritmi può portare a sistemi AI che non riconoscono o non accomodano stili comunicativi diversi, marginalizzando ulteriormente le persone neurodivergenti. Per i bambini con disturbi dello spettro autistico, ADHD, dislessia o altre condizioni, questo significa che gli strumenti AI educativi progettati per “personalizzare” l’apprendimento potrebbero in realtà penalizzarli, valutando come deficitario ciò che è semplicemente diverso.

L’approccio riduzionista all’intelligenza e i suoi danni

La ricerca mette in luce un problema ancora più profondo: l’approccio riduzionista all’intelligenza che sottende molti sistemi AI. Questo approccio non solo non riesce a catturare la natura multisfaccettata della cognizione umana, ma perpetua anche pratiche discriminatorie che sono state a lungo utilizzate per giustificare l’esclusione e l’oppressione delle persone con disabilità. In contrasto netto, i framework di giustizia per la disabilità resistono a tali costrutti abilisti e sostengono il riconoscimento di forme diverse di intelligenza e modi di conoscere.

Per i bambini in età scolare, questo si traduce in sistemi di valutazione algoritmica che possono: classificare come “a basso rendimento” studenti il cui stile cognitivo semplicemente non corrisponde ai pattern riconosciuti dall’AI; raccomandare percorsi educativi limitanti sulla base di previsioni algoritmiche che riflettono bias storici; ridurre l’identità dello studente a un insieme di punti dati, piuttosto che trattarlo come un individuo con bisogni unici e potenziale. Una revisione sistematica di scoping su AI e disabilità, pubblicata nel 2024, conclude che i sistemi AI addestrati su dati pregiudicati possono perpetuare pratiche discriminatorie e consolidare ulteriormente i bias sociali, specialmente in contesti come la sanità, l’impiego e i servizi sociali.

I bias intersezionali: quando le marginalità si moltiplicano

L’analisi ISACA del 2025 documenta come il bias algoritmico non operi mai lungo una singola dimensione. I bias socioeconomici, geografici, di disabilità, d’età, linguistici e intersezionali si nascondono sotto la superficie, plasmando gli esiti in modi che possono non essere mai visibili. Quando si combinano basso reddito con disabilità, o età con isolamento geografico, il bias si moltiplica. Per un bambino con disabilità che vive in un’area rurale a basso reddito in un paese del Global South, l’AI può rappresentare simultaneamente un’opportunità di accesso educativo altrimenti impossibile e un sistema che lo discrimina su molteplici dimensioni.

La risposta non può essere semplicemente tecnica. Catturare questi bias richiede nuovi strumenti, nuove mentalità e vigilanza costante. Come conclude ISACA: se si costruisce, si distribuisce o si governa l’AI, ampliare la propria lente sui bias creerà un futuro più equo. L’AI inclusiva non è solo etica, è intelligente. Continuate a chiedervi: chi manca qui? Chi viene trascurato? Finché non lo farete, l’AI rischia di tradire proprio le persone che dovrebbe servire.


Estratto da Infanzia Algoritmica: Intelligenza Artificiale, Minori e Salute di Giuseppe Siciliani Disponibile su Amazon