Il danno psicologico dell'AI-CSAM
La vittimizzazione senza contatto: un nuovo paradigma
Un contributo fondamentale al dibattito accademico è il paper “AI Generated Child Sexual Abuse Material — What’s the Harm?” pubblicato su arXiv nel 2025. Il testo documenta due processi psicologici chiave: l’escalation, dove gli individui progrediscono da contenuti legali per adulti al CSAM sintetico man mano che la tolleranza aumenta verso materiale più estremo; e l’erosione dell’inibizione, dove individui con un interesse sessuale verso i bambini, che altrimenti potrebbero astenersi dall’offesa, vengono attirati dalla percezione di sicurezza, legalità o personalizzazione del contenuto sintetico. Entrambi i processi possono essere rinforzati da comunità online che normalizzano o incoraggiano il continuo coinvolgimento.
La ricerca empirica citata nel paper dimostra che la stragrande maggioranza dei teenager e giovani adulti (84%) riconosce che le immagini deepfake di nudo causano danni psicologici, emotivi e reputazionali tangibili a coloro che vi sono raffigurati. Le vittime riportano esperienze di umiliazione, violazione, ansia e perdita di controllo sulla propria immagine, anche quando il materiale è interamente sintetico. Come ha documentato il caso Tatum a Charlotte, North Carolina, l’AI-CSAM può reclamare vittime a decenni dalla creazione delle foto originali: una delle immagini manipolate raffigurava una quindicenne in attesa del bus, ma la foto originale era stata scattata 25 anni prima e la vittima era ormai quarantenne.
L’Australian Institute of Criminology: un’analisi rapida delle evidenze
L’Australian Institute of Criminology ha pubblicato nel 2025 una Rapid Evidence Assessment (Wolbers, Cubitt e Cahill, 2025) sull’intelligenza artificiale e l’abuso sessuale dei minori, fornendo una rassegna delle evidenze disponibili che conferma: l’AI sta creando nuove forme di sfruttamento, complicando gli sforzi di rilevamento e causando danni significativi ai bambini. Il rapporto raccomanda nuovi metodi investigativi e strumenti per le forze dell’ordine, e corrispondente nuova legislazione. Lo studio indiano citato da Borah, Ramaswamy e Seshadri (2025) su SAGE Journals documenta che i crimini informatici contro i bambini in India sono aumentati di oltre il 400% nel 2020 rispetto al 2019, e che un bambino su tre online è un minore secondo UNICEF.
APA (2025). “Artificial Intelligence and Adolescent Well-being: An APA Health Advisory.” American Psychological Association, Giugno 2025.
Borah, S.K., Ramaswamy, S., Seshadri, S. (2025). “The Online Specter: AI and Its Risks for Child Sexual Abuse.” SAGE Journals.
Dritsona, A. et al. (2026). “AI and Mental Health of Children and Adolescents.” Advances in Experimental Medicine and Biology, vol. 1489. Springer.
Europol (2025). “Operation Cumberland: 25 arrested in global hit against AI-generated CSAM.” 28 Febbraio 2025.
IWF (2024). Rapporto AI-CSAM aggiornamento luglio 2024. Internet Watch Foundation.
Karagianni, A. et al. (2025). “The legal framework and legal gaps for AI-generated CSAM.” ScienceDirect.
NCMEC (2025). “CyberTipline Data 2024.” National Center for Missing & Exploited Children.
Neugnot-Cerioli, M., Muss Laurenty, O. (2024). “The Future of Child Development in the AI Era.” arXiv:2405.19275.
Ng, S. (2025). “Navigating Adolescent Mental Health in the Age of AI.” JAACAP Connect 13(1):13-16.
Ovsyannikova, D. et al. (2025). “Third-party evaluators perceive AI as more compassionate than expert humans.” Communications Psychology 3(1):4.
Parti, K., Szabó, J. (2024). “The Legal Challenges of Realistic and AI-Driven CSAM.” MDPI Laws 13(6):67.
Pfefferkorn, R. (2025). “Letter to NCMEC about AI-CSAM Report Statistics.” Stanford Cyber Policy Center, Gennaio 2026.
Sharma, G. et al. (2025). “Use of AI in Adolescents’ Mental Health Care: Systematic Scoping Review.” JMIR Mental Health 12:e70438.
Thorn (2025). “2024 Impact Report.” + “Deepfake nudes: a harmful reality for youth.”
Tesi Magistrale Sociologia (2024-2025). “Ruolo dell’IA nella transizione dall’adolescenza all’età adulta: studio comparativo Italia-UAE.” ResearchGate.
UTS Sydney (2025). “Review of Innovative Mental Health Support for CYP: GenAI Co-design.” Current Developmental Disorders Reports.
Wolbers, H., Cubitt, T., Cahill, M. (2025). “AI and Child Sexual Abuse: A Rapid Evidence Assessment.” Australian Institute of Criminology.
DHS Know2Protect (2025). “TIPS2PROTECT Against AI and Deepfakes.” Department of Homeland Security.
Wilson Center (2024). “Combatting AI-Generated CSAM.” Policy brief.
Yale School of Medicine / AHRQ / NIMHD (2023). Guiding Principles for Eliminating Algorithmic Bias. JAMA Network Open.
I BAMBINI MORTI PER L’AI: CRONOLOGIA DELLE CAUSE LEGALI, IL SETTLEMENT E LA RISPOSTA REGOLATORIA
Estratto da Infanzia Algoritmica: Intelligenza Artificiale, Minori e Salute di Giuseppe Siciliani Disponibile su Amazon