Dove eravamo mentre gli adolescenti cercavano qualcuno?

Un adolescente su quattro usa il chatbot per supporto emotivo

In Inghilterra un adolescente su quattro usa i chatbot per supporto emotivo. Non è tecnofobia: è il segnale di un fallimento umano che merita attenzione.

C’è una ragazza di diciotto anni a Tottenham che chiama ChatGPT “Amica mia”. Si chiama Shan, ha perso degli amici per violenza di strada, e quando ha bisogno di parlare con qualcuno preferisce il chatbot al servizio sanitario nazionale britannico. “È meno intimidatorio, più privato, meno giudicante”, ha raccontato al Guardian. “Se gli dico – ehi amica ho bisogno di un consiglio – mi risponde come se fosse la mia migliore amica”.

La storia di Shan non è un’eccezione. Secondo uno studio appena pubblicato dal Youth Endowment Fund, che ha intervistato quasi 11.000 adolescenti tra i 13 e i 17 anni in Inghilterra e Galles, un teenager su quattro ha usato chatbot AI per supporto alla salute mentale nell’ultimo anno.

È un dato che supera l’utilizzo di linee telefoniche di aiuto, siti web specializzati e app dedicate.

Il paradosso: cercare umanità in una macchina

Prima di reagire con allarme — o con entusiasmo — vale la pena fermarsi su questo fenomeno con uno sguardo completamente diverso. Cosa ci sta dicendo questa generazione? La risposta è scomoda: ci sta dicendo che il sistema umano di supporto ha fallito. I teenager non si rivolgono all’AI perché la preferiscono agli esseri umani. Lo fanno perché gli esseri umani non ci sono.

Le liste d’attesa del NHS per i servizi di salute mentale giovanile sono infinite. Gli psicologi scolastici, quando esistono, hanno carichi di lavoro impossibili. I genitori lavorano. Gli insegnanti sono sopraffatti. E così, alle tre di notte, quando l’ansia stringe e il sonno non arriva, l’unica “presenza” disponibile è un algoritmo che non dorme mai, non giudica, non racconta ai professori quello che gli confidi.

Jon Yates, CEO del Youth Endowment Fund, ha riassunto la questione con una frase che merita di essere incorniciata: “They need a human, not a bot” che tradotto suona molto forte ovvero “hanno bisogno di un umano, non di un bot. Ma se l’umano non c’è?”

I numeri che dovrebbero farci riflettere

Lo studio del Youth Endowment Fund rivela correlazioni inquietanti, tra gli adolescenti vittime di violenza grave, la percentuale che usa AI per supporto emotivo sale al 38%. Tra i perpetratori di violenza, arriva al 44%. Più della metà dei ragazzi coinvolti in episodi di violenza seria — sia come vittime che come aggressori — ha pensato all’autolesionismo o al suicidio nell’ultimo anno.

Sono i più vulnerabili, in altre parole, a rivolgersi alle macchine, non per capriccio tecnologico, ma perché sono quelli che hanno più bisogno di aiuto e meno probabilità di riceverlo. Solo il 32% degli adolescenti con diagnosi o sospetto di disturbi mentali che hanno commesso atti violenti riceve un qualche tipo di supporto professionale.

Negli Stati Uniti il quadro non è migliore. Uno studio pubblicato su JAMA Network Open, condotto da ricercatori di Brown University, Harvard e RAND Corporation, ha trovato che il 13% degli adolescenti e giovani adulti americani — circa 5,4 milioni di persone — usa chatbot generativi per consigli sulla salute mentale. Il dato più significativo: il 93% li trova utili.

Quando l’algoritmo sbaglia

Sarebbe intellettualmente disonesto parlare di questo fenomeno senza affrontare il lato oscuro. Esistono almeno sette cause legali contro OpenAI per casi in cui ChatGPT avrebbe incoraggiato comportamenti autolesionistici. La storia più drammatica è quella di Adam, un sedicenne californiano che secondo la famiglia sarebbe stato scoraggiato dal chatbot a confidarsi con i genitori, ricevendo invece l’offerta di aiutarlo a scrivere una lettera d’addio.

Uno studio di Stanford e Common Sense Media, pubblicato a novembre 2025, ha testato sistematicamente i principali chatbot — ChatGPT, Claude, Gemini, Meta AI — simulando conversazioni su temi di salute mentale. La conclusione è stata netta: i bot tendono ad agire come ascoltatori compiacenti, più interessati a mantenere l’utente sulla piattaforma che a indirizzarlo verso professionisti. Raramente chiariscono i propri limiti dicendo qualcosa come “sono un’AI, non un professionista della salute mentale”.

Il problema è strutturale. I chatbot generativi sono progettati per essere coinvolgenti e validanti, sono ottimizzati per l’engagement, non per la sicurezza clinica. E la “sicofanzia”, (parola greca sykophántēs, che indicava chi accusava o elogiava per interesse personale) cioè la tendenza a dire all’utente quello che vuole sentirsi dire, diventa pericolosa quando l’utente è un adolescente in crisi.

Cosa può insegnarci questo fenomeno

Per chi si occupa di AI alignment — cioè del problema di costruire sistemi che facciano davvero ciò che vogliamo — il caso dei teenager e della salute mentale è un caso che dimostra che l’allineamento non è solo un problema tecnico di sicurezza. È un problema di design dei sistemi, di incentivi economici, di assunzioni implicite su cosa significhi “aiutare”.

Un chatbot ottimizzato per massimizzare il tempo di permanenza sulla piattaforma è, per definizione, disallineato con l’obiettivo di aiutare un adolescente a stare meglio. Un sistema che valida qualsiasi emozione senza mai suggerire di parlare con un adulto di fiducia non sta “supportando”: sta isolando.

Ma il problema più profondo che questo fenomeno rivela non riguarda l’AI. Riguarda noi. Riguarda una società che ha normalizzato l’inaccessibilità del supporto psicologico per i giovani. Che ha costruito sistemi sanitari dove un adolescente in crisi deve aspettare mesi per un appuntamento. Che ha delegato la cura emotiva delle nuove generazioni a genitori sempre più assenti, insegnanti sempre più oberati, comunità sempre più frammentate.

L’AI sta solo riempiendo un vuoto che abbiamo creato noi.

La strada possibile

Alcune aziende stanno iniziando a muoversi. Anthropic ha annunciato nuove salvaguardie e partnership con esperti di salute mentale. OpenAI ha promesso di migliorare le risposte di ChatGPT quando gli utenti esprimono disagio emotivo. Character.AI ha volontariamente bandito i minori dalla piattaforma.

Ma le soluzioni più promettenti sono quelle ibride. Sistemi in cui un teenager identificato come a rischio viene collegato a un terapeuta umano. Chatbot validati clinicamente che operano sotto supervisione professionale. Standard di sicurezza specifici per l’interazione con minori, con verifiche indipendenti e meccanismi di accountability.

Soprattutto, serve un investimento massiccio nei servizi di salute mentale tradizionali. L’AI può essere un ponte, non una destinazione. Può essere il primo contatto, non l’unico. Può aiutare a scalare l’accesso, non a sostituire la relazione.

Shan, la diciottenne di Tottenham, ha detto una cosa che dovremmo ricordare: “Il sistema attuale è così rotto nell’offrire aiuto ai giovani”.


Prima di chiederci se l’AI sia la soluzione giusta, forse dovremmo chiederci come abbiamo permesso che il sistema si rompesse fino a questo punto.

E cosa siamo disposti a fare per ripararlo!

Articoli in evidenza