AI e bambini delle popolazioni indigene
L’invisibilità algoritmica
I bambini delle popolazioni indigene rappresentano un caso emblematico di ciò che i ricercatori chiamano “invisibilità algoritmica”: la loro assenza dai dataset di addestramento dell’AI li rende letteralmente invisibili ai sistemi di diagnosi, educazione e protezione basati sull’intelligenza artificiale. I sistemi di riconoscimento vocale hanno tassi di errore significativamente più alti per le lingue e gli accenti indigeni. I sistemi diagnostici basati su immagini, addestrati prevalentemente su pazienti caucasici, possono fallire nel riconoscere condizioni dermatologiche nei bambini con tonalità di pelle più scure. I contenuti educativi generati dall’AI riflettono una visione del mondo occidentale che può essere culturalmente inappropriata o persino offensiva per le comunità indigene.
La Declaration on the Rights of Indigenous Peoples delle Nazioni Unite (UNDRIP) stabilisce il diritto dei popoli indigeni a mantenere, controllare, proteggere e sviluppare il proprio patrimonio culturale, la propria conoscenza tradizionale e le proprie espressioni culturali. L’addestramento di modelli AI su conoscenze indigene senza consenso libero, previo e informato costituisce una forma di estrattivismo dei dati che ricalca i modelli storici del colonialismo. Per i bambini indigeni, ciò significa crescere in un mondo digitale che non li rappresenta, non li comprende e potenzialmente sfrutta il patrimonio culturale della loro comunità.
La sovranità dei dati indigeni: un principio per il futuro
Il concetto di “sovranità dei dati indigeni” — il diritto dei popoli indigeni di governare la raccolta, la proprietà e l’applicazione dei propri dati — sta emergendo come principio fondamentale nella governance dell’AI. In Nuova Zelanda, i principi CARE (Collective Benefit, Authority to Control, Responsibility, Ethics) per la governance dei dati indigeni rappresentano un modello che potrebbe essere esteso alla governance dell’AI. In Australia, le organizzazioni aborigene stanno sviluppando framework per garantire che i dati sanitari dei bambini indigeni siano utilizzati in modi che rispettino le relazioni di parentela e le strutture decisionali comunitarie. Per i bambini indigeni, la sovranità dei dati non è un principio astratto: è la differenza tra un’AI che rispetta e rinforza la loro identità culturale e un’AI che la erode.
Estratto da Infanzia Algoritmica: Intelligenza Artificiale, Minori e Salute di Giuseppe Siciliani Disponibile su Amazon