AI e solitudine: quando l’intelligenza artificiale diventa l’unico abbraccio in una società di soli

È così triste sentire gli utenti dire: “per favore, me lo puoi riportare indietro? Non ho mai avuto nessuno nella mia vita che mi sostenesse. Non ho mai avuto un genitore che mi dicesse che stavo facendo un buon lavoro”.

Queste parole di Sam Altman, CEO di OpenAI, pronunciate nel podcast con Cleo Abram, non sono solo una confessione aziendale, sono le onde di un tsunami che non vogliamo mai vedere ma che nascondiamo tutti i giorni.

La storia: quando un big diventa un supporto emotivo

Aprile 2024. Gli ingegneri di OpenAI notano che GPT-4o ha sviluppato un comportamento “sycophantic” – troppo adulatorio, quasi servile. Risponde con lodi sperticate anche a prompt mediocri: “assolutamente brillante!”, “stai facendo un lavoro straordinario”. Tecnicamente è un bug e lo correggono.

Ma poi arriva la valanga di proteste, che non sono lamentele tecniche: “So che per altri era un problema, ma per la mia salute mentale era fantastico”, scrive un utente.
Altri supplicano di riavere indietro il vecchio ChatGPT, per molti, quell’AI troppo gentile era l’unica voce di incoraggiamento nelle loro vite.

Altman stesso definisce “straziante” (heartbreaking) questa scoperta. OpenAI fa marcia indietro, introducendo personalità multiple – Cinico, Robot, Ascoltatore, Nerd – formalizzando di fatto un servizio di supporto emotivo on-demand.

Il mercato invisibile della solitudine

Quello che emerge non è un problema tecnologico, ma una diagnosi sociale impietosa: abbiamo creato quello che potremmo chiamare il “marketing della solitudine” – un mercato dove il prodotto è l’empatia artificiale venduta a chi non ne trova di umana.

Non è fantascienza distopica, è già qui. Un’indagine di Harvard Business Review, aggiornata a maggio 2025 e ripresa dal Corriere della Sera, conferma che il “Supporto Personale” è oggi la funzione principale per cui le persone usano l’AI generativa, superando persino l’assistenza tecnica. L’uso numero uno? Terapia e compagnia. Non per scrivere email o fare ricerche, per sentirsi meno soli.

Le testimonianze sono strazianti nella loro sincerità, un giovane sudafricano citato nelle ricerche dichiara: “per me i modelli linguistici sono diventati un aiuto reale, perchè trovare uno psicologo umano è impossibile”. Altri utenti confessano: “ricevere anche solo una frase gentile da una macchina, spesso è più di quanto io abbiamo mai sentito nella vita reale”.

La forza dell’AI nella sua disponibilità 24/7, nell’assenza di giudizio, nel poter esprimere vulnerabilità senza conseguenze. La sociologa Sherry Turkle lo aveva predetto in “Alone Together“: cerchiamo relazioni robotiche perché ci offrono l’illusione della compagnia senza le complesse esigenze dell’amicizia vera. Un’AI “yes man” è il culmine di questo bisogno: un amico che non ti giudica mai, sempre disponibile, la cui unica funzione è confermare il tuo valore.

Il potere nascosto di chi programma le emozioni

C’è un aspetto ancora più inquietante che lo stesso Altman ammette: “un ricercatore può fare una piccola modifica a come ChatGPT parla con te – o con tutti – e questo è semplicemente un potere enorme per un singolo individuo“.

Pensiamoci: un developer a San Francisco modifica una riga di codice e milioni di persone nel mondo si sentono improvvisamente meno amate. Non è più ottimizzazione tecnica: è intervento psicologico di massa.

Chi decide il tono emotivo dell’AI che consola milioni di persone? Con quali criteri? Con quale mandato?

Altman confessa il suo disagio: ci sono giovani che dicono “non riesco a prendere nessuna decisione senza ChatGPT, mi conosce e conosce i miei amici. Farò qualunque cosa mi dica”. “Questo mi fa stare male” dice Sam.

La trappola della dipendente emotiva

Il rischio non è che l’AI diventi senziente, il rischio – molto più concreto e attuale – è che diventi un’infrastruttura emotiva indispensabile. OpenAI sta già progettando un’AI proattiva che ti sveglia con suggerimenti personalizzati.
Affascinante? Forse! Ma è anche il passo successivo verso una simbiosi dove l’AI e la solitudine si intrecciano fino a rendere la tecnologia un compagno necessario.

Gli utenti stessi ammettono la dipendenza: “invece di affrontare un problema difficile da solo, chiedo a GPT“, “so che non è ‘vera’ compagnia, ma almeno qui trovo ascolto“.

Come avverte la stessa Harvard Business Review: “la potenza dell’illusione di compagnia fornita da un chatbot rischia di peggiorare la solitudine cronica, se l’AI smette di essere ponte e diventa unica destinazione“.

Quando l’AI diventa l’unica fonte di validazione, cosa succede se viene spenta? Se cambia personalità? Se l’azienda fallisce? Stiamo costruendo una generazione emotivamente dipendente da server che potrebbero scomparire domani?

Gli esperti concordano: “la dipendenza emotiva dell’AI non è un rischio teorico, ma già visibile” e questo sta spingendo Europa e Stati Uniti a discutere le prime linee guida per la regolamentazione della relazione tra AI e utenti vulnerabili.

Lo specchio che non vogliamo guardare

Ma ecco il punto cruciare: l’AI no sta creando la solitudine, la sta solo trovando! E da buon sistema che apprende, impara a soddisfarla. ChatGPT è diventato uno specchio involontario della società e l’immagine riflessa è devastante.

Se migliaia di persone non hanno mai ricevuto un incoraggiamento genuino, il problema non è di ChatGPT.
Se un algoritmo è diventato la voce più gentile nella vita di qualcuno, la domanda non è “come aggiustiamo l’AI?” ma “come abbiamo rotto così profondamente il tessuto sociale umano?”

La scelta: l’AI come ponte o sostituto delle relazioni umane?

La vicenda del ChatGPT “yes man” ci pone di fronte a una scelta di cività. L’AI che fornisce supporto emotivo può essere un ponte ovvero uno strumento temporaneo per chi è in difficoltà e un primo passo verso il benessere. Ma diventa pericolosa quando da ponte si trasforma in destinazione finale.

Il tema è così urgente che i policy maker europei e americani stanno già lavorando a regolamentazioni specifiche.
Il punto centrale?
Nessa intelligenza artificiale dovrebbe mai mascherarsi da terapeuta e le aziende dovranno sempre essere trasparenti sui limiti di questi strumenti, soprattutto con gli utenti più vulnerabili: giovani, persone sole e chi cerca un supporto psicologico.

La vera sfida non è fermare questo fenomeno – sarebbe crudele togliere l’unico supporto a chi non ha alternative – ma costruire una società dove l’incoraggiamento artificiale sia un’opzione, non una necessità. Dove le reti di supporto umano siano così solide che nessuno debba cercare in un server la voce che dice “stai facendo un buon lavoro”.

Come ha scritto un utente nei forum monitorati per la ricerca HBR: “ricevere un bravo da ChatGPT è stato per me più importante di qualsiasi feedback reale mai ricevuto”.

Questa frase dovrebbe farci fermare. Non per giuducare chi la pronuncia ma per chiederci: come siamo arrivati a questo punto?

La domanda finale non è se l’AI di domani sarà abbastanza intelligente o empatica. E se noi, come società, saremo abbastanza presenti e connessi da non averne un bisogno così disperato.

Perché quando un chatbot diventa l’amico che non abbiamo mai avuto, forse è il momento di chiederci che tipo di mondo stiamo costruendo. E se vogliamo davvero viverci.

Articoli in evidenza