AI-CSAM: materiale di abuso sessuale generato dall'AI

Definizione e portata del fenomeno

Il materiale di abuso sessuale su minori generato dall’Intelligenza Artificiale (AI-CSAM) rappresenta una delle manifestazioni più gravi e disturbanti della tecnologia deepfake. La produzione di questo materiale può vittimizzare o rivittimizzare bambini reali in diversi modi: attraverso l’uso di CSAM reale nell’addestramento dei modelli generativi; attraverso l’uso dell’AI per manipolare immagini di bambini reali; o attraverso la creazione di contenuti che assomigliano a minori identificabili.

La dimensione del fenomeno è in crescita esponenziale. Come già documentato, le segnalazioni al NCMEC sono passate da 4.700 nel 2023 a 440.000 nei primi sei mesi del 2025. L’American Academy of Pediatrics ha pubblicato nel 2025 un documento specifico sull’impatto dei deepfake, della pornografia sintetica e del materiale di abuso sessuale su minori generato virtualmente, riconoscendo la necessità di risposte coordinate a livello medico, legale e tecnologico.

L’ecosistema delle applicazioni di nudificazione

Uno studio di Gibson e colleghi presentato all’USENIX Security Symposium 2025 ha condotto un’analisi sistematica dell’ecosistema delle applicazioni di nudificazione AI, documentandone la diffusione, l’accessibilità e l’assenza quasi totale di salvaguardie. Queste applicazioni, facilmente scaricabili e utilizzabili senza competenze tecniche, permettono di rimuovere sinteticamente i vestiti dalle immagini caricate dall’utente.

La disponibilità di queste applicazioni ha conseguenze devastanti in ambito scolastico. I casi documentati dalla stampa e dalle forze dell’ordine mostrano un pattern ricorrente: studenti che prendono foto dai profili social dei compagni, le elaborano attraverso app di nudificazione, e le diffondono nella scuola attraverso chat di gruppo, con effetti traumatici sulle vittime. Come nel caso della scuola media in Louisiana, le vittime possono ritrovarsi punite per la propria reazione emotiva all’abuso piuttosto che protette dal sistema scolastico.

Il dibattito giuridico: il danno delle immagini sintetiche

Un dibattito cruciale in ambito giuridico e accademico riguarda la natura del danno causato dal materiale sintetico. Se un’immagine è completamente generata dall’AI e non raffigura un bambino reale, esiste comunque un danno? La risposta della comunità scientifica e giuridica è sempre più convergente verso un sì convinto, per diverse ragioni.

Primo, anche le immagini completamente sintetiche possono assomigliare a minori identificabili, causando loro danno psicologico e reputazionale. Secondo, la circolazione di AI-CSAM normalizza la sessualizzazione dei minori e può essere utilizzata per il grooming. Terzo, il confine tra sintetico e reale è ormai talmente sfumato che distinguere i due tipi di materiale è diventato praticamente impossibile, rendendo più difficile per le forze dell’ordine identificare e proteggere le vittime reali. Quarto, la produzione di AI-CSAM può coinvolgere l’uso di CSAM reale come materiale di addestramento, perpetuando il ciclo di abuso.


Estratto da Infanzia Algoritmica: Intelligenza Artificiale, Minori e Salute di Giuseppe Siciliani Disponibile su Amazon