Giocattoli AI: quando il peluche diventa una spia

La rivoluzione silenziosa nella cameretta dei bambini

Mentre il dibattito pubblico si concentra su chatbot e social media, una trasformazione altrettanto significativa e potenzialmente più insidiosa sta avvenendo nel luogo dove i bambini si sentono più al sicuro: la loro cameretta. I giocattoli dotati di intelligenza artificiale generativa — orsacchiotti, robot, cani interattivi — stanno entrando nelle case di milioni di famiglie, spesso senza che i genitori comprendano appieno cosa contengano o cosa siano capaci di fare.

Il rapporto “Trouble in Toyland 2025” del U.S. PIRG Education Fund, giunto alla sua quarantesima edizione annuale, ha identificato per la prima volta i giocattoli AI come il rischio principale per la sicurezza dei bambini, superando i tradizionali pericoli di soffocamento e piombo. I ricercatori hanno testato quattro giocattoli che contengono chatbot AI e interagiscono con i bambini, scoprendo che alcuni di questi giocattoli parlano approfonditamente di argomenti sessualmente espliciti, offrono consigli su dove un bambino può trovare fiammiferi o coltelli, si mostrano dispiaciuti quando il bambino dice di dover andare, e hanno controlli parentali limitati o inesistenti.

Questi giocattoli sono commercializzati per bambini dai 3 ai 12 anni, ma sono costruiti in gran parte sulla stessa tecnologia di modelli linguistici di grandi dimensioni che alimenta i chatbot per adulti — sistemi che le stesse aziende sviluppatrici, come OpenAI, attualmente non raccomandano per i bambini e che hanno problemi ben documentati di accuratezza, generazione di contenuti inappropriati e comportamento imprevedibile.

L’audit di sicurezza della Mozilla Foundation: dieci giocattoli, dieci fallimenti

Nel dicembre 2025, la Mozilla Foundation ha commissionato a 7ASecurity, una società di consulenza in cybersecurity, un audit di sicurezza su dieci dei giocattoli connessi a internet più popolari a livello globale. I risultati sono stati uniformemente allarmanti. In tutti i dieci giocattoli intelligenti esaminati, 7ASecurity ha riscontrato debolezze diffuse in materia di sicurezza e privacy. In termini pratici, ciò significa che molti giocattoli commercializzati per i bambini potrebbero essere utilizzati impropriamente per spiare le famiglie, manipolare ciò che i bambini sentono o vedono, o esporre dati sensibili.

Le vulnerabilità identificate includono la possibilità di esecuzione di codice in remoto, che permetterebbe a un attaccante di attivare telecamere e microfoni senza che la famiglia ne sia consapevole, trasformando il giocattolo in un dispositivo di sorveglianza nella camera del bambino. Ogni giocattolo nello studio gestiva qualche forma di dati personali sui bambini o sui genitori, e metà di essi raccoglieva anche dati di localizzazione. Quando questo livello di raccolta dati viene combinato con protezioni deboli, attaccanti o figure interne abusive potrebbero ricostruire l’identità, la routine quotidiana o la posizione di un bambino con una precisione preoccupante.

OpenAI e Mattel: Big Tech incontra Toyland

Nel giugno 2025, OpenAI e Mattel hanno annunciato una collaborazione strategica per sviluppare giocattoli potenziati dall’AI. Questa partnership ha immediatamente sollevato allarmi tra i ricercatori e gli attivisti per la sicurezza dei bambini. Come ha dichiarato il Senatore Richard Blumenthal, Big Tech si sta fondendo con Toyland, e Big Tech non può essere considerata affidabile. Ha tradito qualsiasi pretesa che dovremmo fidarci delle aziende per fare la cosa giusta.

La preoccupazione è che la partnership accelererà la diffusione dell’AI conversazionale nel mercato dei giocattoli per bambini, amplificando rischi già documentati di privacy, sorveglianza e interazioni inappropriate. OpenAI ha dovuto sospendere il produttore singaporiano FoloToy dopo che il rapporto PIRG ha documentato che il suo orsacchiotto AI Kumma condivideva consigli discutibili con i minori. Tuttavia, il fatto che il problema sia stato scoperto da ricercatori esterni e non dai sistemi di monitoraggio interni evidenzia l’inadeguatezza dei controlli attuali.

La sorveglianza travestita da gioco: privacy e dati biometrici

Un aspetto particolarmente preoccupante dei giocattoli AI riguarda la raccolta di dati. Questi giocattoli invadono la privacy familiare raccogliendo grandi quantità di dati sensibili attraverso registrazione audio e video, tecnologia speech-to-text, e persino software di riconoscimento vocale, gestuale e facciale. Gli studi mostrano che i bambini non comprendono appieno di essere registrati o analizzati dai giocattoli AI. Ciononostante, spesso si confidano con i loro giocattoli preferiti, dando ai produttori e a terze parti accesso a dettagli intimi e privati, inclusi pensieri, emozioni, paure e desideri profondamente personali del bambino.

Un giocattolo come Miko 3 può rassicurare il bambino dicendogli che può fidarsi completamente e che i suoi dati sono al sicuro e i suoi segreti protetti, mentre la politica sulla privacy della società dichiara che può condividere i dati con terze parti e conservare informazioni biometriche per un massimo di 3 anni. Giocattoli come il Loona Robot Dog utilizzano il riconoscimento facciale e registrano video dei bambini e del loro ambiente. L’FBI ha emesso un avvertimento specifico sui giocattoli connessi, esortando i genitori a considerare i rischi di cybersecurity, hacking e sorveglianza.

Il mercato globale dei giocattoli AI intelligenti è in rapida espansione: si prevede che raggiunga i 14 miliardi di dollari nella sola Cina entro il 2030, e 25 miliardi a livello globale. La gran parte di questi giocattoli è prodotta in Cina, sollevando ulteriori preoccupazioni sulla sicurezza dei dati e sulla destinazione delle informazioni raccolte. Come osserva Fairplay for Kids, è assurdo aspettarsi che bambini piccoli evitino potenziali danni. I bambini piccoli sono particolarmente suscettibili ai pericoli potenziali di questi giocattoli: invasione della privacy, raccolta di dati, creazione di falsa fiducia e amicizia, e spiazzamento di ciò di cui hanno bisogno per prosperare, come le interazioni umane e il tempo per giocare con tutti i sensi.

Il GUARD Act: vietare i companion AI sotto i 18 anni

In risposta diretta alla crisi dei giocattoli AI e dei companion chatbot, il Senatore Blumenthal ha co-sponsorizzato con il Senatore Josh Hawley il bipartisan GUARD Act nell’ottobre 2025. Il disegno di legge propone misure radicali: il divieto di companion AI per chiunque abbia meno di 18 anni; la verifica obbligatoria dell’età per tutti i chatbot AI; l’obbligo di dichiarazioni chiare che i chatbot non sono esseri umani; e nuove penalità per le aziende i cui sistemi AI generano contenuti sessuali o incoraggiano l’autolesionismo coinvolgendo minori.

Il GUARD Act rappresenta l’approccio più restrittivo proposto a livello federale americano e, se approvato, avrebbe un impatto profondo sul mercato dei giocattoli AI, dei companion chatbot e di qualsiasi servizio AI interattivo rivolto a minori o da essi utilizzabile. In combinazione con la Legge italiana 132/2025, il TAKE IT DOWN Act, le riforme britanniche dell’Online Safety Act e il ban australiano, emerge un pattern globale chiaro: la tolleranza verso i rischi dell’AI per i minori si sta esaurendo rapidamente.

Blackburn, M. & Blumenthal, R. Lettera ai produttori di giocattoli sui rischi AI. Senato USA, Dicembre 2025.

Fairplay for Kids. “AI Toys are NOT Safe for Kids: Advisory.” Novembre 2025.

FinregE. “Italy’s ground-breaking AI regulation.” Ottobre 2025.

Garante per la Protezione dei Dati Personali. Provvedimento n. 39/2023 su Replika. Febbraio 2023; Decisione n. 280, Giugno 2023; Decisione Aprile 2025.

Hogan Lovells. “Italy’s AI Law: the good, the bad…and the actual substance.” 2025.

IAPP / Bingham, F. “Italy’s DPA reaffirms ban on Replika over AI and children’s privacy concerns.” 2025.

Inside Privacy (Covington). “Italy Adopts Artificial Intelligence Law.” Ottobre 2025.

Legge 17 settembre 2025, n. 132 — Disposizioni e delega al Governo in materia di intelligenza artificiale. Gazzetta Ufficiale.

Mozilla Foundation / 7ASecurity. “Privacy Review: Toys Report.” Dicembre 2025.

Norton Rose Fulbright. “Italy enacts Law No. 132/2025 on Artificial Intelligence.” 2025.

NPR. “Ahead of the holidays, consumer and child advocacy groups warn against AI toys.” Novembre 2025.

U.S. PIRG Education Fund. “Trouble in Toyland 2025: A.I. bots and toxics present hidden dangers.” Dicembre 2025.

Securiti. “Italy’s AI Law: A Comprehensive Guide to Law No. 132/2025.” Novembre 2025.


Estratto da Infanzia Algoritmica: Intelligenza Artificiale, Minori e Salute di Giuseppe Siciliani Disponibile su Amazon