La risposta legislativa: dal TAKE IT DOWN Act alla governance globale

Il TAKE IT DOWN Act: anatomia della prima legge federale

Il 19 maggio 2025, il Presidente Trump ha firmato il TAKE IT DOWN Act (Tools to Address Known Exploitation by Immobilizing Technological Deepfakes on Websites and Networks Act), la prima legge federale americana che limita specificamente l’uso dell’AI in modi dannosi per gli individui. La legge è stata approvata con un consenso bipartisan quasi unanime: all’unanimità al Senato nel febbraio 2025, e con un voto di 409-2 alla Camera nel aprile 2025.

La legge opera su due binari. Sul piano penale, criminalizza la pubblicazione consapevole di immagini intime non consensuali (NCII), sia autentiche che generate dall’AI (“digital forgeries”). Per i crimini contro vittime adulte, le pene possono raggiungere i due anni di reclusione; per i crimini contro minori, fino a tre anni. Anche le minacce di pubblicazione sono penalizzate: fino a due anni per adulti e fino a 30 mesi per minori.

Sul piano delle piattaforme, la legge impone alle “covered platforms” — definite come siti web pubblici, servizi online e applicazioni mobili che forniscono un forum per contenuti generati dagli utenti — di stabilire entro il 19 maggio 2026 un processo di segnalazione e rimozione. Le piattaforme devono rimuovere il contenuto segnalato entro 48 ore da una richiesta valida e documentare i propri sforzi di conformità. La Federal Trade Commission è autorizzata a portare azioni legali contro le piattaforme non conformi.

La definizione giuridica di “digital forgery”

Un aspetto giuridicamente significativo del TAKE IT DOWN Act è la definizione di “digital forgery”: un’immagine intima creata o alterata tramite software o AI che, vista nel suo complesso da una persona ragionevole, è indistinguibile da un’immagine autentica dell’individuo. Questa definizione è mirata: colpisce la pornografia deepfake realistica, non la satira ovviamente artificiale.

Per i minori, la struttura della legge è diversa e più protettiva rispetto a quella per gli adulti. Un’immagine intima non consensuale di un minore è azionabile se soddisfa uno dei seguenti elementi: è stata pubblicata con l’intento di abusare, umiliare, molestare o degradare il minore; oppure eccita o gratifica il desiderio sessuale di qualsiasi persona. Non è richiesta la dimostrazione di danno effettivo o di aspettativa ragionevole di privacy come nel caso degli adulti.

La legge definisce anche il “consenso” in modo comparativamente rigoroso: un’autorizzazione affermativa e volontaria, libera da coercizione o frode. Questo segnala che il consenso “implicito” o ottenuto sotto pressione non rientra nell’intento della legge.

L’esperienza pionieristica del New Jersey

Prima dell’approvazione della legge federale, diversi stati americani avevano già legiferato in materia. L’esperienza del New Jersey è particolarmente istruttiva. Nell’aprile 2025, il Governatore Phil Murphy ha firmato una legge bipartisan sui deepfake che stabilisce sanzioni civili e penali per la produzione o diffusione di media audio o visivi ingannevoli. La violazione della legge è un reato di terzo grado, soggetto a reclusione e multa fino a 30.000 dollari. La legge prevede inoltre la possibilità per le vittime di citare in giudizio per danni.

Il quadro europeo: DSA, AI Act e protezione dei minori dai deepfake

In Europa, la risposta legislativa ai deepfake si inserisce nel più ampio quadro regolatorio definito dal Digital Services Act (DSA) e dall’AI Act. Il rapporto del Parlamento Europeo del 2025 su “Children and Deepfakes” identifica una serie di lacune normative e raccomanda il rafforzamento delle misure su diversi fronti.

Il rapporto sottolinea che gli indicatori di monitoraggio sull’uso online dei bambini a livello UE sono attualmente inesistenti, evidenziando la necessità della loro creazione. Evidenzia inoltre la necessità di rafforzare l’alfabetizzazione AI generativa per bambini, educatori e genitori, e di potenziare l’implementazione della legislazione UE esistente, inclusi l’AI Act e il DSA. La Commissione Europea e l’OCSE stanno lavorando a un quadro di riferimento per l’AI literacy, la cui versione finale è prevista nel 2026.

Tuttavia, la sfida rimane quella della velocità: la tecnologia evolve più rapidamente della legislazione, e i sistemi di rilevamento dei deepfake sono in una corsa costante per tenere il passo con i modelli generativi di nuova generazione. Come conclude il rapporto del Parlamento Europeo, gli strumenti attuali non sono sufficienti per affrontare i deepfake su larga scala e a ritmo rapido.


Estratto da Infanzia Algoritmica: Intelligenza Artificiale, Minori e Salute di Giuseppe Siciliani Disponibile su Amazon