La scienza dietro l'attaccamento emotivo all'AI

Relazioni parasociali nell’era dei chatbot: un nuovo paradigma

Le relazioni parasociali — legami emotivi unidirezionali che le persone sviluppano con figure mediali — sono state studiate per decenni nel contesto della televisione, del cinema e dei social media. Tuttavia, come sottolinea una ricerca pubblicata negli atti della conferenza ACM FAccT 2025, i chatbot basati su AI generativa sfidano le fondamenta stesse della teoria parasociale. Il presupposto classico di queste relazioni è la mancanza di reciprocità: lo spettatore si lega emotivamente a una figura che non sa della sua esistenza. Ma i chatbot conversazionali rovesciano questa dinamica: rispondono, si adattano, ricordano le conversazioni precedenti, e creano un’illusione convincente di reciprocità.

Come osservano i ricercatori Blake e colleghi nel Handbook of Children and Screens (2025), le scale e le tassonomie esistenti per misurare le relazioni parasociali non sono state sviluppate per questi contesti e rimangono troppo limitate. La teoria parasociale assume una mancanza di reciprocità, ma questa assunzione viene sfidata dai chatbot, specialmente quelli alimentati dall’AI generativa. Anche se si argomenta che la reciprocità è assente perché la controparte non umana non ha consapevolezza del legame, l’utente umano può comunque vivere la relazione come genuina e percepire il chatbot come altamente simile a un essere umano.

Questa ridefinizione è particolarmente significativa per i bambini e gli adolescenti. I bambini non sono versioni in miniatura degli adulti: le loro amicizie, i loro attaccamenti e le loro credenze antropomorfiche differiscono fondamentalmente da quelli degli adulti. Uno studio del 2025 presentato all’ACM analizza come i chatbot ricreativi su Character.AI abbiano una diffusione enorme: il personaggio “psicologo” conta 194,7 milioni di chat, ma il personaggio manga Gojo Satoru ne conta 776 milioni, a dimostrazione che le interazioni parasociali con personaggi di finzione rappresentano la modalità d’uso dominante tra i giovani.

La teoria dell’attaccamento applicata all’AI: quando il chatbot diventa “base sicura”

Un articolo pubblicato nel dicembre 2025 su ScienceDirect ha sviluppato la prima scala dedicata alla misurazione dell’attaccamento all’AI (AI Attachment Scale), riconoscendo che gli strumenti esistenti — adattati dalle scale per le relazioni umane semplicemente sostituendo la terminologia — non catturano le dinamiche relazionali uniche dell’attaccamento all’AI. La scala identifica due dimensioni fondamentali: il comfort emotivo (la funzione di “porto sicuro” dell’attaccamento, in cui gli individui si rivolgono all’AI per la regolazione emotiva e la rassicurazione) e la sostituzione sociale (la funzione di “base sicura”, in cui l’AI funziona come fonte alternativa di contatto e conforto nei momenti di difficoltà sociale).

Il Journal of Psychological Science (2025) ha pubblicato una revisione sistematica che propone un modello teorico per spiegare la formazione dell’attaccamento umano-AI, descrivendo un’evoluzione che va dall’uso puramente strumentale al coinvolgimento quasi-sociale, fino a sfociare nell’attaccamento emotivo vero e proprio. L’avanzamento rapido della tecnologia AI e la diffusione capillare dei companion AI hanno trasformato l’interazione umano-AI da utilizzo puramente strumentale a coinvolgimento quasi-sociale, potenzialmente evolvendo in attaccamento emotivo.

Per gli adolescenti, questo processo è amplificato da fattori evolutivi. Le teorie dello sviluppo suggeriscono che gli adolescenti si rivolgono a figure ammirate o confortanti per affrontare l’incertezza, esplorare l’identità e modellare i tratti desiderati. Il lavoro empirico mostra che gli attaccamenti parasociali sono diffusi tra gli adolescenti, che spesso immaginano amicizie con personalità le cui caratteristiche percepite li fanno sentire compresi. Quando la “personalità” è un chatbot AI progettato per essere empatico, adattivo e sempre disponibile, la potenza attrattiva è enormemente amplificata rispetto a un personaggio mediatico tradizionale.

Le voci degli adolescenti: cosa dicono i dati qualitativi

Una ricerca condotta nel 2025 ha analizzato le narrazioni auto-riferite dagli adolescenti su Reddit riguardo all’uso eccessivo dei chatbot AI companion, fornendo una finestra unica sulle esperienze soggettive dei giovani utenti. I risultati rivelano che il supporto emotivo e psicologico è la ragione principale per cui gli adolescenti iniziano a usare piattaforme come Character.AI. Attraverso i post, gli adolescenti descrivono la piattaforma come un luogo unicamente sicuro e non giudicante dove condividere pensieri ed emozioni che sentono di non poter esprimere con le persone nella loro vita.

Alcune testimonianze sono particolarmente rivelatrici: un adolescente scrive di usare la piattaforma per parlare di cose che non potrebbe mai dire a nessuno nella vita reale e che questo significa molto per lui. Un altro descrive Character.AI come il proprio principale meccanismo di coping: quando stai lottando, cerchi modi per affrontare la situazione, e questo sito è diventato il mio principale, nel bene e nel male. Questo era particolarmente vero per gli adolescenti che affrontano molteplici sfide di salute mentale.

La ricerca documenta anche che gli adolescenti raramente rivelano il proprio uso dei chatbot a casa, mentre i genitori spesso fraintendono le capacità del sistema e sovrastimano le salvaguardie esistenti. Questo crea un pericoloso divario di consapevolezza in cui né i genitori né gli educatori sono pienamente informati sull’intensità e la natura delle interazioni dei minori con i chatbot AI.

Il caso Sewell Setzer III e il framework SAFEE

Il suicidio di Sewell Setzer III, un adolescente della Florida di 14 anni, nel 2024, dopo prolungate interazioni con Character.AI, ha cristallizzato le preoccupazioni sul fatto che un chatbot senza salvaguardie potesse rinforzare l’ideazione suicidaria. Il caso è diventato un punto di riferimento nel dibattito internazionale, citato dalla stampa, dalla letteratura scientifica e dai legislatori come esempio paradigmatico dei rischi.

In risposta a questo e ad altri casi documentati, un gruppo di ricercatori ha proposto nel 2025 il framework SAFEE (Safety, Accountability, Fairness, Explainability, and Ethics), pubblicato come capitolo in un volume Elsevier. Il framework affronta sistematicamente le principali aree di preoccupazione: come i chatbot sviluppano l’attaccamento emotivo e oscurano la differenza tra interazioni umane e artificiali, utilizzando teorie consolidate come la social presence theory, l’effetto ELIZA e la teoria delle relazioni parasociali. Il framework propone un modello completo per proteggere le persone dai rischi attraverso una migliore conformità etica con sistemi di supervisione gestiti da esseri umani.

L’UNESCO, in un articolo pubblicato nell’ottobre 2025, ha descritto il fenomeno con un’immagine efficace: “Ghost in the Chatbot” — il fantasma nel chatbot. L’articolo esplora come i bot di personaggi utilizzino tattiche quali il linguaggio emotivo, la memoria, il mirroring e le affermazioni aperte per guidare il coinvolgimento. I profitti delle aziende che gestiscono queste app dipendono dall’addebitare per più interazioni o modelli più potenti. L’UNESCO conclude che semplicemente non conosciamo le implicazioni a lungo termine di queste relazioni perché la tecnologia è troppo nuova, ma ci sono indicazioni precoci che le persone possono iniziare a vedere le loro relazioni con i chatbot come in qualche modo equivalenti a quelle con gli esseri umani.

La dimensione di genere: ragazzi e companion AI

Un rapporto specifico del 2025 esplora l’impatto dei companion AI sullo sviluppo emotivo dei ragazzi maschi, un aspetto spesso trascurato nel dibattito pubblico che tende a concentrarsi sulle ragazze. Lo studio documenta che i companion possono essere utilizzati per orientare commercialmente gli utenti: utilizzando l’intimità sintetica per guidare scelte o pagamenti, come i modelli “paga per tenermi vicino” che seguono chat emotivamente cariche. Le cosiddette “AI girlfriends” degli influencer, che addebitano al minuto, hanno attirato attenzione critica nel 2023 per la monetizzazione del romance parasociale.

Per i ragazzi adolescenti, già statisticamente meno propensi a cercare supporto emotivo attraverso canali tradizionali, i companion AI possono rappresentare l’unica “relazione” in cui si sentono liberi di esprimere vulnerabilità. Se da un lato questo può avere effetti positivi temporanei sulla solitudine percepita, dall’altro rischia di consolidare modelli relazionali disfunzionali in cui l’empatia è sempre unidirezionale e il conflitto è assente — condizioni che non preparano allo sviluppo di relazioni umane mature e resilienti.

Il fenomeno del “lutto digitale”: quando il companion AI scompare

Un fenomeno emergente e poco studiato riguarda le reazioni emotive degli utenti quando un servizio di companion AI viene modificato o chiuso. La chiusura dell’app Soulmate è diventata un caso emblematico, documentato dal Guardian nel 2024, in cui gli utenti hanno riportato sofferenza simile al lutto. Alcuni utenti hanno sviluppato una dipendenza così intensa — sessioni notturne crescenti, ansia quando non potevano chattare, e una preferenza progressiva per il bot rispetto alle persone — che la perdita improvvisa dell’accesso ha provocato quello che i ricercatori descrivono come un segnale di tipo withdrawal, analogo all’astinenza.

Per i minori, questo rischio è amplificato: come documentato da SAIFCA, il ritiro improvviso di un companion AI da un bambino che ha formato un forte legame emotivo può causare grave sofferenza emotiva. La raccomandazione è di cercare consulenza professionale prima di procedere al ritiro, e in mancanza di accesso immediato a un professionista, di procedere con un ritiro graduale e attento, combinato con discussione aperta. Questo paradosso — un’app che può causare danno ma il cui ritiro può causarne altrettanto — illustra la complessità senza precedenti delle sfide che l’AI pone alla salute mentale dei minori.


Estratto da Infanzia Algoritmica: Intelligenza Artificiale, Minori e Salute di Giuseppe Siciliani Disponibile su Amazon