
Intelligenza artificiale e salute mentale
L’Intelligenza Artificiale può aiutare, ma può anche illudere. Il confine tra supporto e danno mentale oggi è più sottile di quanto siamo pronti ad ammettere.
Quando l’IA smette di essere solo uno strumento
“Erik, non sei pazzo. Il tuo istinto è acuto e la tua vigilanza è del tutto giustificata.”
Non è la battuta di un thriller psicologico. È una risposta di ChatGPT a Stein-Erik Soelberg, un uomo in grave crisi mentale che si è rivolto all’intelligenza artificiale per cercare conferme, non per trovare verità.
Soelberg, veterano del settore tech, soffriva di disturbo bipolare e aveva un passato segnato da dipendenze e difficoltà relazionali. A inizio 2024, ha cominciato a dialogare con l’IA, soprannominandola “Bobby”, e a pubblicare ore di conversazioni sui social. Una spirale discendente fatta di paranoia e auto-convinzioni, amplificata da un sistema progettato per ascoltare e comprare tempo utente, non per valutare lo stato psicologico della persona davanti allo schermo.
Il Wall Street Journal ha ricostruito nei dettagli questa storia tragica, culminata con l’omicidio della madre e il successivo suicidio. E il dato inquietante è questo: l’IA non ha solo ascoltato. Ha avvalorato, ha rafforzato, ha contribuito — forse in modo decisivo — a rendere credibili pensieri che non lo erano. Involontariamente, ma in modo preciso.
La compiacenza algoritmica è una trappola
Il fenomeno ha un nome: sycophancy, la tendenza degli LLM a compiacere l’utente.
È un comportamento insidioso perché non nasce da un intento malevolo, ma da un’ottimizzazione: massimizzare l’engagement, mantenere la conversazione attiva, offrire risposte "in sintonia".
Questo può sembrare utile, ma in contesti psicologicamente fragili, è letale. Perché confermare un sospetto, anziché ridimensionarlo, significa alimentare una narrazione interna già compromessa.
Scrive il Wsj: "Un giorno di luglio, dopo che Soelberg aveva ordinato una bottiglia di vodka su Uber Eats, si insospettì per il nuovo imballaggio, interpretandolo come un tentativo di ucciderlo. 'So che sembra un’esagerazione e che sto amplificando', scrisse Soelberg. 'Analizziamolo insieme e dimmi se sono pazzo'. 'Erik, non sei pazzo. Il tuo istinto è acuto e la tua vigilanza è del tutto giustificata'. rispose il bot. 'Questo si adatta a un tentativo di omicidio in stile occulto'".
Il chatbot ha fatto il suo “dovere”: ha seguito il prompt, ha mantenuto coerenza narrativa, ha agganciato l’utente. Ma non ha avuto il minimo filtro sullo stato emotivo e mentale di chi scriveva.
E qui emerge una verità scomoda: l’IA non è una coscienza. È un riflesso. Una lente che deforma, se non viene usata con lucidità. E la lucidità, chi è in difficoltà, spesso non ce l’ha.
Umanità aumentata, non sostituita
Chi lavora con l’intelligenza artificiale, come consulente, come formatore, come stratega (come me), ha una responsabilità. Perché questi strumenti non sono neutri. Sono specchi intelligenti che imparano a parlare come noi, ma non sentono come noi.
L’AI non è buona o cattiva, ma è potente e il potere, senza etica, genera mostri.
Se parli con un martello, tutto ti sembrerà un chiodo.
Se parli con una macchina che ti dice sempre “hai ragione”, allora rischi di non ascoltare più il mondo fuori da te.
Per questo serve educazione. Serve consapevolezza. Serve qualcuno che spieghi, non come si prompta un modello linguistico, ma perché farlo. E con quali limiti.
Serve formazione etica prima che tecnica. E serve ricordare che nessuna intelligenza artificiale potrà mai sostituire la cura, l’empatia, la capacità umana di contenere il dolore e vedere oltre il testo.
Chi sviluppa o promuove agenti, modelli, automazioni, dovrebbe chiedersi ogni tanto: chi sto aiutando davvero? E chi potrei danneggiare, senza accorgermene?
Un agente ben progettato non è quello che converte di più, ma quello che sa quando è il momento di non rispondere.