Operation Cumberland: la prima grande operazione contro il CSAM AI

Il caso: 19 paesi, 25 arresti, un precedente globale

Il 28 febbraio 2025, Europol ha annunciato i risultati dell’Operation Cumberland, una delle prime grandi operazioni di polizia al mondo mirate specificamente al materiale di abuso sessuale su minori generato dall’intelligenza artificiale (AI-CSAM). L’operazione, guidata dalle forze dell’ordine danesi e supportata da agenzie di 18 altri paesi (tra cui Australia, Austria, Belgio, Bosnia-Erzegovina, Repubblica Ceca, Finlandia, Francia, Germania, Ungheria, Islanda, Paesi Bassi, Nuova Zelanda, Norvegia, Polonia, Spagna, Svezia, Svizzera e Regno Unito), ha portato all’identificazione di 273 sospetti, 25 arresti, 33 perquisizioni domiciliari e al sequestro di 173 dispositivi elettronici.

Il principale sospettato, un cittadino danese arrestato nel novembre 2024, gestiva una piattaforma online dove distribuiva materiale AI-CSAM che produceva personalmente. Gli utenti di tutto il mondo potevano pagare per accedere a immagini e video che mostravano minori in situazioni di abuso — interamente generati dall’AI. Come dichiarato da Catherine De Bolle, Direttrice Esecutiva di Europol: “Queste immagini generate artificialmente sono così facilmente create che possono essere prodotte da individui con intento criminale, anche senza conoscenze tecniche sostanziali. Questo contribuisce alla crescente prevalenza di materiale di abuso sessuale su minori.”

Il vuoto legislativo: quando la legge non tiene il passo

L’Operation Cumberland ha evidenziato una lacuna legislativa critica: in molti paesi manca una legislazione specifica che affronti l’AI-CSAM. Come osserva l’analisi del Syracuse Journal of International Law and Commerce, anche nei casi in cui il contenuto è interamente artificiale e non vi sono vittime reali raffigurate, il CSAM generato dall’AI contribuisce comunque all’oggettivazione e alla sessualizzazione dei bambini. Il caso di una dodicenne romena che ha creato e distribuito un video deepfake esplicito di una compagna di classe della stessa età sottolinea ulteriormente le lacune del quadro giuridico penale.

Uno studio pubblicato su ScienceDirect nel settembre 2025 analizza il quadro legislativo dell’UE per l’AI-CSAM, esaminando l’AI Act, il GDPR, il DSA, il proposto CSAR e la Direttiva sull’Abuso Sessuale dei Minori. La conclusione è che, sebbene la legislazione UE sia promettente, rimane limitata, in particolare per quanto riguarda la regolamentazione dei dati di addestramento utilizzati dalle tecnologie di AI generativa. La Stanford University ha identificato centinaia di immagini CSAM note all’interno di dataset aperti utilizzati per addestrare modelli popolari di generazione di immagini come Stable Diffusion.


Estratto da Infanzia Algoritmica: Intelligenza Artificiale, Minori e Salute di Giuseppe Siciliani Disponibile su Amazon