AI e giustizia minorile: algoritmi nel tribunale dei minorenni
I risk assessment tools nella giustizia giovanile
L’uso di strumenti di valutazione del rischio basati sull’AI nella giustizia minorile rappresenta una delle applicazioni più controverse dell’intelligenza artificiale nei confronti dei bambini. Negli Stati Uniti, strumenti come il COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) e simili sono stati utilizzati anche nel sistema di giustizia giovanile per predire la probabilità di recidiva e informare le decisioni su detenzione, libertà vigilata e programmi di riabilitazione. Lo studio di ProPublica del 2016 ha dimostrato che il COMPAS aveva un tasso di falsi positivi significativamente più alto per i giovani afroamericani: i ragazzi neri avevano quasi il doppio delle probabilità di essere erroneamente classificati come ad alto rischio di recidiva rispetto ai coetanei bianchi.
Per i minori, l’impatto di un algoritmo distorto può essere devastante in modi che non si applicano agli adulti. Un adolescente erroneamente classificato come “ad alto rischio” può essere incarcerato invece di ricevere un programma di riabilitazione comunitaria, un’esperienza che la ricerca ha dimostrato aumentare piuttosto che diminuire la probabilità di recidiva futura. L’incarcerazione giovanile interrompe l’istruzione, recide le relazioni familiari e sociali, e può esporre il minore a violenze e abusi all’interno delle strutture detentive. L’European Union Agency for Fundamental Rights ha raccomandato che gli strumenti AI nella giustizia minorile siano soggetti a valutazioni d’impatto sui diritti fondamentali obbligatorie e che i minori non siano mai soggetti a decisioni interamente automatizzate.
Predictive policing e sorveglianza nei quartieri dei minori
Il predictive policing — l’uso di algoritmi per prevedere dove e quando si verificheranno crimini — ha implicazioni dirette per i minori che vivono nei quartieri identificati come “hot spot.” L’aumento della presenza di polizia in questi quartieri, spesso a maggioranza di minoranze etniche, espone i bambini e gli adolescenti a un contatto più frequente con le forze dell’ordine, normalizzando la sorveglianza e la criminalizzazione delle loro comunità. Lo studio di Ferguson (2017) ha documentato come il predictive policing riproduca e amplifichi i bias storici dei dati di arresto, creando un ciclo autoalimentante: più polizia nei quartieri minoritari produce più arresti, che alimentano l’algoritmo a prevedere più crimini in quei quartieri, che giustifica ancora più polizia.
Estratto da Infanzia Algoritmica: Intelligenza Artificiale, Minori e Salute di Giuseppe Siciliani Disponibile su Amazon