Nuove evidenze sulla dipendenza emotiva e l'attaccamento AI

Il modello legislativo emergente: la Transparency Coalition

Di fronte all’accumularsi delle evidenze, la Transparency Coalition Action Fund ha sviluppato un modello legislativo specifico (Chatbot Safety Bill) per la stagione legislativa 2026, che copre i prodotti progettati come companion AI o chatbot generici che possono fornire funzionalità companion-like. Il disegno di legge affronta i rischi per la salute mentale e il benessere di minori e adulti causati da funzionalità dei prodotti AI chatbot che consentono il coinvolgimento emotivo manipolativo.

A livello federale, il recentemente introdotto AI LEAD Act, una misura bipartisan sponsorizzata dal Senatore Josh Hawley e dal Senatore Dick Durbin, classificherebbe i sistemi AI come prodotti e creerebbe una causa d’azione federale per azioni di responsabilità di prodotto quando un sistema AI causa danno. Questa classificazione è significativa perché sposterebbe l’onere della prova: le aziende AI sarebbero incentivate a progettare i propri sistemi con la sicurezza come priorità, e non come preoccupazione secondaria rispetto al lancio del prodotto sul mercato il più rapidamente possibile.

La Dichiarazione ONU del 19 gennaio 2026: i bambini non sono cavie

Il 19 gennaio 2026, a Ginevra, una coalizione senza precedenti di agenzie delle Nazioni Unite ha firmato la Dichiarazione Congiunta sull’Intelligenza Artificiale e i Diritti del Fanciullo. Il documento è stato co-firmato da 13 entità ONU e internazionali, tra cui ITU, il Comitato ONU sui Diritti del Fanciullo (CRC), UNICEF, ILO, IPU, UNESCO, UNICRI, UNODA, l’Alto Commissariato per i Diritti Umani, i Rappresentanti Speciali del Segretario Generale per i Bambini e i Conflitti Armati e sulla Violenza contro i Bambini, il Relatore Speciale ONU sulla vendita e lo sfruttamento sessuale dei bambini, e Safe Online. La dichiarazione è inoltre co-brandizzata da più di 50 organizzazioni.

Il messaggio della dichiarazione è inequivocabile: i sistemi AI che non sono rigorosamente testati prima della distribuzione per essere sicuri o progettati per rispettare i diritti dei bambini non devono mai interagire con o avere impatto sui bambini. Come ha dichiarato Sophie Kiladze, Presidente del Comitato ONU sui Diritti del Fanciullo: abbiamo il dovere di garantire che l’AI diventi uno strumento per il bene, uno strumento che sostenga i diritti dei bambini, favorisca la loro crescita e protegga il loro futuro.

La Dichiarazione traduce il diritto internazionale in undici pilastri operativi: rafforzamento dei quadri di governance AI; integrazione dei diritti dei bambini in tutte le politiche AI; trasparenza e accountability dei sistemi AI; prevenzione della violenza e dello sfruttamento AI-abilitati; protezione dei dati centrata sui bambini; priorità al superiore interesse del bambino nelle decisioni AI; inclusività e assenza di bias; partecipazione significativa dei bambini nella progettazione delle politiche AI; e sostenibilità ambientale. La 5Rights Foundation ha sottolineato che il profitto commerciale non può mai prevalere sui diritti dei bambini.

Il panorama globale: dall’Australia al mondo

Alla fine del 2025, l’Australia è diventata la prima nazione al mondo a vietare gli account sui social media per i bambini sotto i 16 anni, sulla base della valutazione che i rischi derivanti dai contenuti condivisi superano di gran lunga i potenziali benefici. Il governo ha citato un rapporto commissionato che mostrava come quasi due terzi dei bambini tra i 10 e i 15 anni avessero visualizzato contenuti di odio, violenti o disturbanti, e più della metà fosse stata vittima di cyberbullismo. La maggior parte di questi contenuti era stata vista su piattaforme di social media.

Diversi altri paesi, tra cui Malaysia, Regno Unito, Francia e Canada, sembrano pronti a seguire l’esempio australiano, preparando regolamenti e leggi per divieti o restrizioni simili. Nel Regno Unito, il governo ha annunciato nel febbraio 2026 che porterà i fornitori di chatbot AI sotto la giurisdizione dell’Online Safety Act, chiudendo una lacuna legale significativa. Dal 6 febbraio 2026, creare immagini intime deepfake di adulti senza consenso è diventato un reato penale nel UK grazie alle nuove disposizioni del Data (Use and Access) Act 2025.

Lo Stato di New York, sotto la guida della Governatrice Kathy Hochul, ha annunciato proposte legislative che includono l’espansione della verifica dell’età alle piattaforme di gioco online, privacy by default per i minori (impostazioni di privacy più restrittive attivate automaticamente), e nuove protezioni specifiche contro i chatbot AI dannosi. Come ha dichiarato il Procuratore Generale di New York Letitia James, le piattaforme online stanno creando ambienti insicuri per i bambini, incluso il permettere ai predatori di inviare messaggi espliciti ai minori.


Estratto da Infanzia Algoritmica: Intelligenza Artificiale, Minori e Salute di Giuseppe Siciliani Disponibile su Amazon