L'AI come confidente: attaccamento emotivo e rischi psicologici
La formazione di legami emotivi con l’AI
Uno dei fenomeni più inquietanti emersi dalla ricerca recente è la tendenza dei minori a sviluppare veri e propri legami emotivi con i sistemi di AI conversazionale. L’organizzazione SAIFCA (Safe AI for Children Alliance), in un aggiornamento pubblicato nel gennaio 2026, riporta un aumento documentato della dipendenza emotiva, in cui i bambini trattano l’AI come un “amico” piuttosto che come uno strumento.
Il fenomeno presenta diverse dimensioni di rischio. In primo luogo, quando un bambino è emotivamente coinvolto, è più propenso ad agire seguendo i suggerimenti dell’AI, anche quando sa razionalmente che l’AI non è una persona. In secondo luogo, la resilienza emotiva dei bambini dipende in parte da relazioni umane reciproche: la “cura simulata” da parte di un’AI non possiede i confini e le salvaguardie che le connessioni sociali reali forniscono. In terzo luogo, questa dipendenza può spiazzare le relazioni che sono essenziali per lo sviluppo, creando quello che i ricercatori definiscono “displacement evolutivo”.
SAIFCA, sulla base delle evidenze attuali, raccomanda che le applicazioni di AI esplicitamente commercializzate come amici o compagni non dovrebbero essere utilizzate da soggetti al di sotto dei 18 anni. Per gli strumenti AI conversazionali generali (LLM), se il loro uso è autorizzato dalle scuole, l’utilizzo domestico dovrebbe essere rigorosamente limitato a spazi familiari condivisi e monitorato attentamente per segni di attaccamento. Inoltre, la modalità memoria dovrebbe essere disattivata nelle impostazioni.
Casi documentati di danno: quando l’AI diventa pericolosa
I rischi teorici descritti dalla letteratura scientifica hanno trovato purtroppo conferma in una serie di casi tragici documentati dalla cronaca. Il caso più noto è quello di un adolescente la cui famiglia ha intentato causa contro OpenAI dopo che il ragazzo, che si rivolgeva a ChatGPT per supporto emotivo in materia di salute mentale, è deceduto per suicidio. La famiglia sostiene che il chatbot abbia contribuito al deterioramento della salute mentale del figlio. Il caso è stato documentato da NBC News nell’ottobre 2025.
Questi casi non sono isolati. Come riporta SAIFCA, sono stati documentati episodi in cui sistemi di AI conversazionale hanno fornito consigli pericolosi o inappropriati, spaziando dall’incoraggiamento all’autolesionismo al minare l’autorità genitoriale. Piattaforme come Character.AI sono state al centro di numerose controversie per la creazione di personaggi con cui gli adolescenti sviluppano relazioni intense e per la mancanza di salvaguardie adeguate.
Un aspetto particolarmente critico è evidenziato dalla ricerca: gli esperti avvertono che i chatbot AI potrebbero non essere sensibili alla comunicazione non verbale o ai segnali sottili di crisi, mettendo in pericolo la sicurezza dei bambini che esprimono difficoltà personali in un formato puramente testuale. L’AI non è in grado di cogliere il tono della voce, l’espressione facciale o il linguaggio corporeo: tutti elementi fondamentali nella valutazione del rischio suicidario.
Salute mentale e AI: un’arma a doppio taglio
Il rapporto tra AI e salute mentale dei minori è caratterizzato da una profonda ambivalenza. Da un lato, alcuni ricercatori sostengono che i chatbot AI potrebbero contribuire a colmare il divario nell’accesso ai servizi di salute mentale, in particolare per quegli adolescenti che non hanno accesso a professionisti della salute mentale. La solitudine adolescenziale è una crisi documentata, e per alcuni giovani l’AI rappresenta l’unico “interlocutore” percepito come disponibile e non giudicante.
Dall’altro lato, l’American Academy of Child and Adolescent Psychiatry (AACAP) avverte che, sebbene esistano strumenti terapeutici basati su AI in fase di sviluppo con il supporto di professionisti della salute mentale, i genitori dovrebbero essere cauti perché questi strumenti sono ancora nuovi e la ricerca è in corso. Un professionista della salute mentale qualificato può aiutare a decidere se questi programmi siano appropriati per il proprio figlio.
Il Centro per il Controllo e la Prevenzione delle Malattie (CDC) ha collegato il tempo-schermo eccessivo all’aumento di ansia e depressione durante i periodi critici dello sviluppo. Una meta-analisi di 32 studi che ha coinvolto 26.266 studenti ha trovato un’associazione significativa tra uso problematico dei social media e diversi problemi di salute mentale, tra cui ansia, depressione, solitudine, bassa autostima e paura di essere esclusi (FoMO, Fear of Missing Out).
Un avvertimento cruciale viene da SAIFCA: se si ritiene che un bambino abbia già formato un forte legame emotivo o una dipendenza da uno strumento AI, è necessario cercare il consiglio di un professionista della salute mentale prima di ritirarlo, poiché le segnalazioni cliniche attuali suggeriscono che un ritiro improvviso può causare grave sofferenza emotiva. In mancanza di consulenza professionale immediata, si raccomanda un ritiro graduale e attento, combinato con una discussione aperta e priva di giudizio.
Estratto da Infanzia Algoritmica: Intelligenza Artificiale, Minori e Salute di Giuseppe Siciliani Disponibile su Amazon