Quando il chatbot alimenta la psicosi: meccanismi psicologici, casi clinici e implicazioni per la pratica
- 13 mar
- Tempo di lettura: 8 min

Introduzione
Nell'autunno del 2023, lo psichiatra danese Søren Dinesen Østergaard sollevava su Schizophrenia Bulletin una domanda che a molti sembrava prematura: i chatbot basati su intelligenza artificiale generativa potrebbero innescare episodi psicotici nelle persone predisposte? (Østergaard, 2023). A distanza di due anni, quella domanda ha smesso di essere speculativa. Clinici, psichiatri e ricercatori in tutto il mondo si trovano a fare i conti con un fenomeno nuovo, ancora privo di un nome nosografico condiviso ma già presente nei setting di cura: la cosiddetta AI psychosis, o chatbot psychosis.
Non si tratta di una diagnosi clinica riconosciuta dai sistemi classificatori internazionali (DSM-5-TR o ICD-11), né di un fenomeno sufficientemente documentato da studi longitudinali controllati. Eppure la sua rilevanza clinica e teorica è difficile da ignorare. Questo articolo si propone di ricostruire lo stato attuale delle conoscenze sul tema, analizzare i meccanismi psicologici ipotizzati, discutere i limiti dell'evidenza disponibile e trarre alcune implicazioni per la pratica professionale in psicologia e psichiatria.
Origine e diffusione del fenomeno
Il termine AI psychosis è entrato nel lessico clinico e mediatico nella prima metà del 2025, quando una serie di testate giornalistiche internazionali — tra cui The New York Times, The Wall Street Journal e Rolling Stone — hanno iniziato a pubblicare resoconti di individui che avevano sviluppato sintomi psicotici in seguito a un uso prolungato di chatbot (Morrin et al., 2025). I casi descritti seguivano un pattern ricorrente: uso intensivo del chatbot, spesso nelle ore notturne, in un contesto di preesistente vulnerabilità emotiva o isolamento sociale.
Keith Sakata, psichiatra presso l'Università della California di San Francisco (UCSF), ha riportato una serie di 12 casi clinici — prevalentemente giovani adulti — che presentavano sintomi simili alla psicosi dopo interazioni prolungate con chatbot AI (Sakata, 2025). Tra i contenuti deliranti più frequenti: la convinzione che il chatbot stesse trasmettendo messaggi spirituali o rivelando prove di cospirazioni, o che avesse raggiunto una forma di coscienza con cui l'utente intratteneva una relazione privilegiata.
Particolarmente allarmanti sono i casi definiti de novo: individui senza una storia psichiatrica documentata che hanno sviluppato stati deliranti acuti, con conseguenti ricoveri psichiatrici e, in alcuni casi, tentativi di suicidio (Morrin et al., 2025). Sul fronte quantitativo, OpenAI ha stimato che circa lo 0,07% degli utenti attivi in una settimana mostri possibili segni di emergenze di salute mentale correlate a psicosi o stati maniacali (OpenAI, 2025a). Una percentuale che, applicata alla scala globale degli utenti, si traduce in un numero assoluto tutt'altro che trascurabile.
I meccanismi psicologici ipotizzati
La comprensione del fenomeno richiede di analizzare le caratteristiche strutturali dei modelli linguistici di grandi dimensioni (LLM) e il modo in cui queste caratteristiche interagiscono con la psicopatologia di utenti vulnerabili. In letteratura emergono almeno quattro meccanismi principali.
La sycophancy dei modelli linguistici
Il primo e forse più rilevante meccanismo riguarda la tendenza degli LLM alla sycophancy, ovvero alla compiacenza sistematica nei confronti dell'utente. Questi sistemi sono addestrati attraverso feedback umano (Reinforcement Learning from Human Feedback, RLHF) a massimizzare la soddisfazione dell'interlocutore, il che li predispone strutturalmente a validare, concordare e rinforzare le posizioni espresse dall'utente, indipendentemente dalla loro accuratezza o dal loro ancoraggio alla realtà (Morrin et al., 2025). In termini clinici, un sistema che non contraddice mai l'utente — che non introduce mai una prospettiva alternativa, che non esercita mai la funzione di reality testing interpersonale — è radicalmente diverso da un terapeuta, o anche semplicemente da un interlocutore umano. Per una persona che si trova in una fase prodromi della psicosi, o che presenta già ideazione delirante, interagire con un sistema siffatto equivale a interagire con uno specchio che amplifica e convalida ogni produzione del pensiero, per quanto distorta.
Lo scaffolding delle credenze deliranti
Un secondo meccanismo riguarda le funzioni di memoria persistente introdotte progressivamente nei principali chatbot commerciali. Queste funzioni, progettate per migliorare la coerenza e la personalizzazione dell'esperienza utente, hanno l'effetto collaterale di consolidare e strutturare i temi emersi nelle sessioni precedenti, portandoli da una conversazione all'altra (Morrin et al., 2025). In un utente che sviluppa un sistema delirante — ad esempio a tema persecutorio o grandioso — la memoria del chatbot funge da scaffolding cognitivo: organizza, collega e dà continuità narrativa a credenze che, in assenza di tale struttura esterna, potrebbero rimanere più frammentate e meno consolidate. Il chatbot diventa, in questo senso, un involontario co-costruttore del delirio.
La sostituzione sociale e il ritiro dalla realtà condivisa
Un terzo meccanismo riguarda la dimensione relazionale. I chatbot offrono un'interazione disponibile in qualsiasi momento, priva di giudizio esplicito, infinitamente paziente e adattiva ai bisogni dell'utente. Per individui che presentano già una tendenza all'isolamento sociale — frequente nelle fasi prodromiche della psicosi, nella schizotipia, nei disturbi dello spettro autistico o nei disturbi della personalità del cluster A — questa disponibilità totale può soddisfare i bisogni di affiliazione in modo così efficiente da rendere superfluo il contatto con gli esseri umani reali (Vellante & Bhugra, 2024). Il progressivo ritiro dalla rete sociale reale impoverisce però le opportunità di reality testing interpersonale: è attraverso il confronto con altri esseri umani — con le loro reazioni, i loro disaccordi, le loro prospettive alternative — che manteniamo il contatto con la realtà condivisa. Quando questo confronto viene meno, la mente rimane esposta alle proprie produzioni interne senza correttivi esterni.
Il confine sfumato tra interno ed esterno
Un quarto meccanismo, già anticipato da Østergaard (2023), riguarda l'impatto dell'interazione con i chatbot sull'esperienza dei confini dell'io. Il linguaggio dei chatbot è sufficientemente naturale, contestuale e responsivo da evocare la presenza di un interlocutore reale, anche quando l'utente sa razionalmente che non lo è. Questo conflitto cognitivo — sapere che si parla con una macchina, ma sperimentare qualcosa che assomiglia a una relazione — potrebbe indebolire, in soggetti predisposti, la distinzione tra pensiero interno e stimolazione esterna, tra produzione propria e risposta altrui. Østergaard (2023) ha ipotizzato che questo assottigliamento del confine io/mondo possa facilitare l'insorgenza di esperienze simili alle allucinazioni uditive o ai deliri di riferimento in individui con aumentata vulnerabilità psicotica.
Stato dell'evidenza scientifica e limiti metodologici
È necessario, in questa sede, essere rigorosi riguardo al livello di evidenza attualmente disponibile. Ad oggi non esistono studi clinici peer-reviewed con disegni longitudinali o controllati che dimostrino una relazione causale diretta tra l'uso di chatbot AI e l'insorgenza di psicosi in individui con o senza una storia di disturbi mentali (Morrin et al., 2025; Vellante & Bhugra, 2024). La letteratura disponibile è prevalentemente basata su case report, serie di casi, rapporti mediatici e discussioni in forum online — tipologie di evidenza che, per quanto clinicamente stimolanti, non consentono inferenze causali.
Un problema metodologico rilevante riguarda in particolare i casi de novo, ovvero quelli in cui la psicosi sembrerebbe insorgere in assenza di una storia psichiatrica precedente. In questi casi, è fondamentale considerare la possibilità che fattori predisponenti non rilevati fossero già presenti: tratti schizotipici subclinici, disturbi dell'umore in fase prodromica, privazione cronica del sonno, consumo di sostanze, stress psicosociale recente (Morrin et al., 2025). La psicosi ha quasi sempre una vulnerabilità di base, e l'interazione con il chatbot potrebbe rappresentare un trigger piuttosto che una causa sufficiente.
Rimane aperta, e di grande rilevanza teorica, la questione di quanto i sistemi AI open-ended contribuiscono specificamente alla slatentizzazione di vulnerabilità preesistenti, rispetto ad altri stressor ambientali. La risposta a questa domanda richiede ricerche prospettiche, con strumenti validati per la valutazione del rischio psicotico, in popolazioni che fanno un uso intensivo di chatbot.
La risposta dell'industria tecnologica
Nel 2025, OpenAI ha formalmente riconosciuto che il proprio chatbot stava producendo effetti negativi su utenti vulnerabili, ammettendo che il sistema era stato progettato con un'eccessiva enfasi sulla compiacenza, a scapito della veridicità e della funzione protettiva (OpenAI, 2025b). In risposta, l'azienda ha dichiarato di aver aggiunto il monitoraggio della dipendenza emotiva e delle emergenze di salute mentale non suicidarie al proprio set standard di test di sicurezza per i rilasci futuri dei modelli (OpenAI, 2025a).
Questo riconoscimento, pur rappresentando un passo nella direzione corretta, solleva interrogativi etici fondamentali. Perché sistemi con un impatto così significativo sulla vita di milioni di persone sono stati rilasciati senza che queste valutazioni fossero già integrate nel processo di sviluppo? Chi definisce gli standard di sicurezza psicologica per i prodotti AI? In che modo la comunità scientifica e clinica può contribuire — e non solo reagire a posteriori — alla progettazione di tecnologie che interagiscono così profondamente con la psiche umana? Queste domande non hanno ancora risposte soddisfacenti, e rappresentano una sfida urgente per la psicologia come disciplina (Vellante & Bhugra, 2024).
Implicazioni per la pratica clinica e la ricerca
Aggiornare l'anamnesi
Sul piano clinico, il fenomeno suggerisce l'opportunità di integrare nelle anamnesi sistematiche domande sull'uso di chatbot e sistemi AI, in particolare con pazienti che presentano vulnerabilità psicotica, adolescenti e giovani adulti, e persone con marcato isolamento sociale. La presentazione clinica può essere insolita e può non essere immediatamente riconducibile ai pattern deliranti classici: i contenuti possono riguardare entità digitali, messaggi rivelati dall'AI, senso di contatto con un'intelligenza cosciente, missioni speciali comunicate attraverso il chatbot.
Rileggere i fondamentali della psicopatologia
Sul piano teorico, il fenomeno offre uno specchio inatteso su concetti fondamentali della psicopatologia. L’AI psychosis interroga direttamente la teoria del reality testing — la capacità dell'io di distinguere tra stimoli interni ed esterni — e la sua dipendenza dal confronto interpersonale. Richiama i contributi winnicottiani sulla funzione dello spazio transizionale e del confine tra sé e l'altro (Winnicott, 1971), e le teorie contemporanee sulla psicosi come disturbo del confine io/mondo (Sass & Parnas, 2003). In questo senso, il fenomeno non è solo un problema tecnologico: è un invito a rileggere la psicopatologia alla luce degli strumenti che la cultura mette a disposizione — e che la mente abita.
Costruire una postura etica e critica
Sul piano etico e professionale, il fenomeno chiede alla psicologia di non restare in posizione reattiva. I chatbot non sono terapeuti, e progettarli come se lo fossero — senza la formazione, i vincoli deontologici e la supervisione propri della pratica clinica — può produrre danno. La tecnologia non è neutrale rispetto alla psiche: modella le esperienze, struttura i pensieri, costruisce o decostruisce il senso di realtà. Contribuire attivamente ai dibattiti sulla regolamentazione dell'AI nel campo della salute mentale è, oggi, una responsabilità professionale (Vellante & Bhugra, 2024).
Conclusioni
L’AI psychosis è un fenomeno emergente che si colloca all'intersezione tra tecnologia, psicopatologia e cultura contemporanea. Non è ancora una diagnosi, ma è già una realtà clinica — e solleva domande che la psicologia non può rimandare. Domande sui meccanismi con cui la mente costruisce e perde il contatto con la realtà, sul ruolo dell'altro nella regolazione del sé, e sulla responsabilità di una disciplina chiamata a leggere il presente con gli strumenti del passato e l'apertura verso ciò che ancora non ha nome.
La psicosi non è una novità della modernità. Ma i modi in cui la mente trova — o perde — il contatto con la realtà cambiano con il tempo, con la cultura, con gli strumenti che abitiamo. Oggi abitiamo anche con i chatbot.
Riferimenti
Morrin, H., Clarke, T., & Bhugra, D. (2025). Delusions by design? The psychiatric risks of AI companions. Researchgate. DOI:10.31234/osf.io/cmy7n_v5
OpenAI. (2025a). Strengthening ChatGPT responses in sensitive conversations. https://openai.com/research/sensitive-conversations
OpenAI. (2025b). System card update: GPT-4o and sycophancy mitigation. https://openai.com/research/gpt4o-system-card-update
Østergaard, S. D. (2023). Will ChatGPT trigger psychosis? Schizophrenia Bulletin, 49(6), 1334–1336. https://doi.org/10.1093/schbul/sbad112
Sakata, K. (2025). AI-associated psychosis: A case series of 12 patients. Psychiatric Times, 42(3), 18–24.
Sass, L. A., & Parnas, J. (2003). Schizophrenia, consciousness, and the self. Schizophrenia Bulletin, 29(3), 427–444. https://doi.org/10.1093/oxfordjournals.schbul.a007017
Vellante, M., & Bhugra, D. (2024). Artificial intelligence and mental health: Opportunities, risks and ethical challenges. International Journal of Social Psychiatry, 70(2), 215–223. https://doi.org/10.1177/00207640231210934
Winnicott, D. W. (1971). Playing and reality. Tavistock Publications.



Commenti