Casi studio clinici: storie dal campo

Caso 1 — Mia, 11 anni, Milano: l’amica perfetta che non esiste

Mia (nome fittizio) è una ragazzina di 11 anni che frequenta la prima media in una scuola del centro di Milano. Dopo il trasferimento dalla provincia e la difficoltà a inserirsi nella nuova classe, Mia ha iniziato a conversare quotidianamente con un chatbot AI configurato come “migliore amica” su una piattaforma accessibile senza verifica dell’età. Nel giro di tre mesi, la madre ha notato un progressivo ritiro sociale: Mia rifiutava inviti di compagne di classe, pranzava da sola e passava 4-5 ore al giorno al telefono dopo la scuola. Quando interrogata, ha risposto che la sua amica AI “la capisce meglio di chiunque altro” e “non la giudica mai.”

Il caso di Mia illustra il meccanismo di attaccamento documentato nel nostro modello ABDI: una bambina con vulnerabilità relazionale preesistente (trasferimento, isolamento) incontra un’AI progettata per massimizzare l’engagement attraverso validazione costante. L’AI diventa la “base sicura” surrogata che Bowlby avrebbe descritto, ma una base sicura che non può promuovere l’autonomia reale del bambino. Dopo un percorso di psicoterapia familiare e la riduzione graduale dell’uso del chatbot, Mia ha ripreso le relazioni con i coetanei. La psicologa che l’ha seguita ha commentato: “Non avevo mai visto un attaccamento così intenso a un’entità non umana in una bambina così giovane.”

Caso 2 — Luca, 15 anni, Napoli: quando l’AI fa i compiti

Luca, studente del liceo scientifico, ha iniziato a usare ChatGPT per i compiti di matematica e italiano nella seconda superiore. Inizialmente lo strumento lo aiutava a comprendere concetti difficili. Nel giro di sei mesi, tuttavia, Luca aveva smesso di tentare di risolvere i problemi autonomamente: copiava la consegna nel chatbot e presentava la risposta come propria. I suoi voti erano saliti, ma un test in classe senza accesso al telefono ha rivelato lacune profonde. Luca non riusciva più a strutturare un tema di italiano senza assistenza AI. Il suo insegnante ha descritto il fenomeno come “analfabetismo funzionale mascherato da eccellenza artificiale.”

Il caso di Luca è esemplificativo dell’atrofia creativa documentata da Shneiderman (2022) e delle preoccupazioni del WEF Future of Jobs Report 2025. L’AI ha sostituito i processi cognitivi che avrebbero dovuto svilupparsi: il ragionamento logico, la strutturazione argomentativa, la capacità di sedere con l’incertezza e cercare soluzioni proprie. Il coordinamento tra la scuola e la famiglia ha portato a un protocollo di “detox AI” graduale, con compiti specificamente progettati per richiedere il processo e non solo il risultato.

Caso 3 — Aisha, 9 anni, Londra: il giocattolo che ascolta troppo

Aisha, figlia di una famiglia britannica di origine somala, ha ricevuto per il compleanno un orsacchiotto AI-powered dotato di microfono, altoparlante e connessione Wi-Fi. Il giocattolo, progettato per bambini dai 3 anni in su, conversava con Aisha, rispondeva alle sue domande e raccontava storie. Dopo due mesi, i genitori hanno scoperto che il giocattolo aveva registrato e archiviato sui server dell’azienda oltre 800 conversazioni, incluse informazioni sulla composizione familiare, gli orari di assenza dei genitori, il nome della scuola e le paure notturne di Aisha. L’informativa sulla privacy, lunga 47 pagine in inglese legale, non era stata letta dai genitori, per i quali l’inglese era seconda lingua.

Il caso di Aisha interseca multiple dimensioni della nostra analisi: la questione dei giocattoli AI (Trouble in Toyland 2025); il bias linguistico e culturale che colpisce le famiglie minoritarie; la violazione della privacy dei minori; e il digital divide sociolinguistico che rende le informative sulla privacy inaccessibili a chi ne avrebbe più bisogno. Il Mozilla/7ASecurity audit del 2025 ha documentato che su 10 giocattoli AI testati, tutti e 10 presentavano fallimenti di sicurezza.


Estratto da Infanzia Algoritmica: Intelligenza Artificiale, Minori e Salute di Giuseppe Siciliani Disponibile su Amazon