NCMEC CyberTipline 2024: i numeri aggiornati dell'emergenza
L’esplosione delle segnalazioni AI: +1.325% in un anno
I dati del rapporto CyberTipline 2024 del NCMEC confermano l’escalation documentata nella nostra analisi: le segnalazioni relative all’AI generativa sono passate da 4.700 nel 2023 a 67.000 nel 2024, un aumento del 1.325%. Questo dato, però, va contestualizzato con un’importante precisazione emersa nel gennaio 2026 dalla Stanford Cyber Policy Center: il modulo di segnalazione CyberTipline contiene una singola casella “Generative AI” il cui significato varia significativamente tra i diversi fornitori di servizi. L’analisi della Stanford ha rivelato che dei 485.000 report AI-related ricevuti nel primo semestre 2025, 380.000 provenivano da Amazon e nessuno di essi riguardava effettivamente materiale generato dall’AI: erano tutti hit di hash su CSAM noto. Questo episodio sottolinea l’urgenza di standardizzare le procedure di segnalazione.
Il rapporto NCMEC 2024 nel suo complesso documenta 20,5 milioni di segnalazioni di sospetto sfruttamento sessuale online dei minori, contenenti quasi 63 milioni di file. Quando aggiustate per il nuovo sistema di “bundling” (raggruppamento di segnalazioni duplicate legate a eventi virali), le segnalazioni corrispondono a 29,2 milioni di incidenti distinti. Le segnalazioni di adescamento online sono aumentate del 192%, raggiungendo oltre 546.000 tip, in parte grazie al nuovo REPORT Act che per la prima volta richiede alle piattaforme di segnalare l’adescamento online e il traffico sessuale di minori.
L’IWF 2024 e i video AI-CSAM: la nuova frontiera
I dati dell’Internet Watch Foundation (IWF) completano il quadro con una prospettiva britannica e globale. Il rapporto IWF di luglio 2024 ha trovato che il 90% delle immagini AI-generated valutate dagli analisti erano sufficientemente realistiche da essere considerate sotto la stessa legge del CSAM reale. Ancora più allarmante: nella prima metà del 2025, l’IWF ha verificato 1.286 video AI come contenenti CSAM illegale, rispetto a soli 2 nello stesso periodo del 2024. Più di 1.000 di questi video mostravano abuso di Categoria A, la classificazione più grave. L’IWF ha inoltre identificato i modelli AI open-source come lo strumento di scelta dei pedofili per creare CSAM.
Il dato di Thorn, basato sulla sua ricerca pubblicata nel 2025, rivela che circa 1 minore su 10 riferisce di conoscere casi in cui i propri coetanei hanno usato l’AI per generare immagini di nudo di altri ragazzi. Il fenomeno del deepfake tra pari non è più un’eccezione ma una tendenza emergente, alimentata dalla facilità di accesso alle applicazioni di “nudificazione”. Il DHS americano, nel suo briefing KNOW2PROTECT del 2025, ha confermato che creare un deepfake oggi non richiede più competenze tecniche: chiunque con una connessione internet può trasformare una foto normale in un’immagine esplicita.
Estratto da Infanzia Algoritmica: Intelligenza Artificiale, Minori e Salute di Giuseppe Siciliani Disponibile su Amazon