L'APA Health Advisory su AI e benessere adolescenziale
Un documento storico: la psicologia americana prende posizione
Nel giugno 2025, l’American Psychological Association (APA) ha pubblicato un Health Advisory specificamente dedicato all’impatto dell’intelligenza artificiale sul benessere degli adolescenti, definendo l’adolescenza come il periodo tra i 10 e i 25 anni. Il documento rappresenta una delle prese di posizione più autorevoli e sistematiche del mondo accademico statunitense su questo tema, costruendo sulle precedenti advisory dell’APA sull’uso dei social media in adolescenza.
L’advisory sottolinea che l’AI è incorporata in molti tipi di applicazioni e programmi, dai più sottili (testo predittivo, autocompletamento, raccomandazioni di acquisto) a una presenza più sostanziale (chatbot, revisione di candidature lavorative, sistemi di allerta). L’APA distingue tra AI generativa, che può generare testo simile a quello umano, creare immagini fotorealistiche, produrre audio realistico e creare video realistici, e AI interattiva, ovvero piattaforme o strumenti che facilitano interazioni uomo-AI come conversazioni in tempo reale, esperienze di apprendimento personalizzate e relazioni simulate.
Le raccomandazioni chiave dell’APA
L’advisory formula una serie di raccomandazioni destinate a stakeholder multipli — genitori, educatori, decisori politici, professionisti tecnologici e gli stessi adolescenti. Tra le più rilevanti: i sistemi AI che forniscono informazioni sanitarie devono garantire l’accuratezza delle informazioni e/o fornire avvertimenti espliciti e ripetuti sulla possibilità di imprecisioni; devono includere disclaimer chiari che l’informazione generata dall’AI non è un sostituto della consulenza sanitaria professionale; devono fornire risorse e promemoria per contattare un educatore, un consulente scolastico, un pediatra o altro esperto appropriato per cercare aiuto nel mondo reale.
L’APA raccomanda inoltre di garantire confini sani nelle relazioni simulate con l’AI. Gli adolescenti hanno meno probabilità rispetto agli adulti di mettere in discussione l’accuratezza e l’intento delle informazioni offerte da un bot piuttosto che da un essere umano. Il documento insiste sulla necessità di creare impostazioni predefinite appropriate all’età per la privacy, limiti di interazione e contenuti, che richiedono trasparenza, supervisione umana e supporto, e test rigorosi. Crucialmente, l’advisory esorta a proteggere le sembianze dei giovani: l’uso improprio delle somiglianze degli adolescenti (immagini, voci) può portare alla creazione e disseminazione di contenuti dannosi, inclusi cyberhate, cyberbullismo e materiale sessualmente abusivo come deepfake e immagini esplicite non consensuali.
La dichiarazione finale dell’APA è particolarmente significativa: “Esortiamo tutti gli stakeholder a garantire che la sicurezza dei giovani sia considerata relativamente presto nell’evoluzione dell’AI. È fondamentale che non si ripetano gli stessi errori dannosi commessi con i social media.” Questa formulazione riconosce implicitamente il fallimento della regolamentazione dei social media come monito per evitare lo stesso errore con l’AI.
Estratto da Infanzia Algoritmica: Intelligenza Artificiale, Minori e Salute di Giuseppe Siciliani Disponibile su Amazon