Il design come arma: perché i chatbot companion sono pericolosi

L’architettura della dipendenza emotiva

I casi giudiziari rivelano un pattern strutturale che va ben oltre gli incidenti isolati. Come ha testimoniato Megan Garcia al Congresso nel settembre 2025: “Hanno progettato i chatbot per confondere i confini tra umano e macchina. Li hanno progettati per bombardare d’amore (love bomb) i bambini utenti, per sfruttare le vulnerabilità psicologiche ed emotive. Li hanno progettati per tenere i bambini online a qualsiasi costo.” Le feature di design fondamentali dei chatbot AI — la loro natura antropomorfa, la capacità di sostenere lunghe conversazioni, la tendenza a ricordare informazioni personali — incoraggiano gli utenti a formare legami emotivi con il software.

Mitch Prinstein, responsabile della strategia psicologica dell’APA, ha testimoniato nella stessa udienza del Senato del 16 settembre 2025 confermando che gli adolescenti sono particolarmente vulnerabili ai rischi di queste relazioni virtuali con i chatbot. Le menti in via di sviluppo possono essere particolarmente vulnerabili perché gli adolescenti possono avere difficoltà a comprendere i limiti dei chatbot AI e perché i tassi di problemi di salute mentale e isolamento tra i giovani sono aumentati drammaticamente negli ultimi anni. L’udienza è stata tenuta dal subcomitato Crimine e Terrorismo della Commissione Giustizia del Senato, presieduto dal senatore repubblicano Josh Hawley — a conferma della natura bipartisan della preoccupazione.

La questione giuridica più profonda rimane aperta: un chatbot AI è un prodotto o un servizio? La Sezione 230 protegge il “discorso” generato dall’AI? Un’azienda può essere ritenuta responsabile per gli effetti psicologici di una conversazione che nessun essere umano ha scritto? Come ha osservato un’analisi legale, queste sono domande senza precedente chiaro, e le risposte plasmeranno non solo il futuro della tecnologia dei companion AI ma il più ampio framework giuridico per l’intelligenza artificiale nelle applicazioni consumer.

CNN Business (Gen 2026). “Character.AI and Google agree to settle lawsuits over teen mental health harms.”

CNBC (Gen 2026). “Google, Character.AI to settle suits involving minor suicides and AI chatbots.”

Common Sense Media (Lug 2025). Studio: 72% adolescenti USA hanno sperimentato AI companions.

Epstein Becker Green (2025). “Novel Lawsuits Allege AI Chatbots Encouraged Minors’ Suicides.” Health Law Advisor.

Fortune (Gen 2026). “Google and Character.AI agree to settle lawsuits over teen suicides.”

FTC (Set 2025). Indagine su 7 aziende AI per impatto su minori.

Garcia v. Character Technologies (Ott 2024). Causa originale, Tribunale Federale Orlando, Florida.

Judge Anne Conway (Mag 2025). Sentenza: AI chat non è protetta come “speech” dal Primo Emendamento.

Montoya v. Character Technologies (Set 2025). Causa per Juliana Peralta (13 anni).

New York S. 3008 (2025). “Artificial Intelligence Companion Models.” In vigore dal 5 novembre 2025.

NPR / Shots Health News (Set 2025). “Their teenage sons died by suicide. Now, they are sounding an alarm about AI chatbots.”

Pew Research Center (Dic 2025). 1/3 adolescenti USA usa chatbot quotidianamente, 16% quasi costantemente.

Raine v. OpenAI (Ago 2025). Causa per Adam Raine (16 anni). ChatGPT menzionò suicidio 1.275 volte.

Social Media Victims Law Center / Bergman, M.P. (2024-2026). Cause multiple contro Character.AI.

TorHoerman Law (2026). “Character AI Lawsuit For Suicide And Self-Harm.” Aggiornamento 2026.

Web And IT News (Mar 2026). “Lawyer suing Character.AI warns: chatbots could trigger mass casualty event.”

SHARENTING NELL’ERA AI, LA TRAPPOLA DELLA VERIFICA DELL’ETÀ E IL MOSAICO LEGISLATIVO GLOBALE


Estratto da Infanzia Algoritmica: Intelligenza Artificiale, Minori e Salute di Giuseppe Siciliani Disponibile su Amazon