
Ti sfoghi con ChatGPT? Un giorno potrebbe inchiodarti in aula
ChatGPT sembra un confidente silenzioso. In questo articolo metto a nudo un rischio sottovalutato: l’illusione di privacy nelle conversazioni con l’intelligenza artificiale.
Fidarsi troppo dell’AI è un errore molto umano
Ricordate in detto "fidarsi è bene, non fidarsi è meglio?"... è sempre un evergreen.
C’è una nuova abitudine, parliamo con ChatGPT come se fosse una persona. Gli raccontiamo pensieri confusi, ansie profonde, decisioni da prendere, ferite non ancora cicatrizzate.
Per molti è più di uno strumento: è un sostegno emotivo. Non ti giudica. Non ti interrompe. È sempre lì, disponibile.
Solo che c’è un dettaglio che in pochi considerano: non è un essere umano.
E non è vincolato da nessuna etica professionale. Un avvocato, uno psicologo, un medico hanno doveri verso il paziente. Un’intelligenza artificiale no.
Il CEO di OpenAI, Sam Altman, l’ha detto senza giri di parole: le conversazioni con ChatGPT non sono protette.
Non esiste segreto professionale. Nessuna tutela. Nessuna garanzia di riservatezza.
Se un giorno ti trovassi coinvolto in una causa legale, le cose che hai scritto potrebbero tornare a galla.
Magari hai cercato “come reagire a una minaccia”, o hai descritto dettagli personali in un momento difficile.
Quei dati, se archiviati o accessibili in qualche forma, potrebbero essere richiesti in giudizio.
Quando l’algoritmo imita l’empatia
Il punto non è che ChatGPT è “cattivo”. Il punto è che finge bene.
Sa scegliere le parole giuste. Sa fare domande che sembrano sensate. Ti restituisce frasi che suonano come comprensione.
Ma non sta ascoltando. Sta solo prevedendo.
È una macchina che indovina la parola più probabile. E tu, umano, lo interpreti come empatia.
Succede perché siamo programmati per cercare connessione. Quando percepiamo una risposta coerente e rassicurante, ci rilassiamo. Abbassiamo la guardia. Ci apriamo.
Ma qui non c’è nessuno.
Nessun volto, nessuna memoria, nessuna coscienza. Solo una sequenza statistica.
Allora bisogna fermarsi e chiedersi: sto parlando con qualcuno che può capirmi… o con qualcosa che mi sta solo imitando?
E ancora: se sto usando questa intelligenza artificiale come valvola di sfogo… sono davvero consapevole di dove stanno finendo i miei dati?
Uno strumento potente, ma non un confidente
L’intelligenza artificiale può avere un ruolo enorme nella salute mentale:
- Può affiancare terapeuti
- Può offrire un primo supporto
- Può abbassare il muro per chi non trova il coraggio di parlare con qualcuno.
Ma non può sostituire una relazione umana.
E non può garantire la privacy di una conversazione intima.
Mettiamola così: se scrivessi i tuoi pensieri su un blog pubblico, sapresti di essere esposto.
Con ChatGPT, molti si illudono di scrivere su un diario segreto.
Ma è un diario collegato a server, API, log e sistemi di addestramento.
Quindi?
- Nessun avvocato ti proteggerà se hai scritto qualcosa che può essere usato contro di te.
- Nessuna piattaforma ti assicurerà che quelle parole non verranno mai lette, da un umano o da un sistema.
- Nessun giudice farà finta di niente se le tue “confidenze” compaiono come evidenze.
Questo non è un allarme contro l’AI. È un invito alla lucidità.
Usa questi strumenti, esplora, sperimenta. Ma non confondere un modello linguistico con una coscienza.
E, soprattutto, non affidare a una macchina ciò che non diresti mai ad alta voce davanti a un tribunale.
L’AI non è buona né cattiva. È potente. E come ogni cosa potente, va compresa.
Io ci lavoro ogni giorno, ci credo e la insegno, ma proprio per questo sento il dovere di dire anche ciò che non fa comodo sentire.
Perché l’etica non è un limite. È un promemoria: siamo umani e dobbiamo restarlo.