
Il primo disastro dell’AI deve ancora arrivare: siamo pronti ad affrontarlo?
La corsa all’intelligenza artificiale accelera, ma ci stiamo davvero preparando alle sue conseguenze più gravi?
La storia insegna, ma l’AI dimentica
L'autore Sean Goedecke fa un parallelo storico: il primo treno passeggeri entrò in servizio nel 1825, il primo disastro ferroviario di massa avvenne 17 anni dopo.
Il primo volo passeggeri nel 1908, il primo disastro aereo 11 anni dopo. ChatGPT è stato rilasciato nel novembre 2022, ma il primo disastro di massa legato ai modelli linguistici AI deve ancora verificarsi.
Non parliamo di scenari da film, con robot ribelli o macchine pensanti che prendono il controllo. Parliamo di incidenti reali, sistemici, che emergono da tecnologie opache, poco controllate, già oggi integrate nei nostri processi economici, sociali e culturali.
Algoritmi che decidono chi ha diritto a un’assicurazione, chi può ottenere un prestito, chi viene assunto. Sistemi di raccomandazione che amplificano l’odio. Modelli linguistici che, se mal usati, diffondono disinformazione in tempo reale. Il problema non è solo cosa fa l’AI, ma come viene messa nelle mani di chi non sa nemmeno come funziona.
Non è la tecnologia, è il contesto
La tecnologia è neutra. Lo sono anche i modelli linguistici, gli agenti AI, i sistemi predittivi. Ma il contesto in cui vengono inseriti, le decisioni economiche che li guidano, le logiche di scala e profitto in cui operano... questi non sono neutri.
Un AI che aiuta un medico a fare diagnosi è un grande progresso. Ma un AI che sostituisce l’empatia con una previsione statistica sul dolore umano, senza contesto né ascolto, è una minaccia. Non perché sbaglia — tutte le tecnologie possono sbagliare — ma perché disumanizza, semplifica, standardizza ciò che è profondamente umano: l’ambiguità, il dubbio, la relazione.
Il primo disastro non sarà un evento singolo e spettacolare. Sarà silenzioso, distribuito, sottile. Sarà un collasso di fiducia. Aziende che perdono dati senza accorgersene. Persone licenziate per un algoritmo “che lo diceva”. Governi che si affidano a sistemi opachi per prendere decisioni sulla vita delle persone. E ci accorgeremo troppo tardi che non abbiamo costruito anticorpi culturali prima di delegare così tanto potere.
Serve un’etica prima, non dopo
Non possiamo più permetterci di usare l’AI come fosse una moda da cavalcare o un gadget da implementare al volo. Serve consapevolezza. Serve formazione. Serve una cultura che metta al centro l’essere umano, non solo la performance o l’efficienza.
Nel mio lavoro, quando aiuto aziende e professionisti a integrare l’intelligenza artificiale nei loro processi, insisto sempre su un punto: l’AI è uno specchio. Riflette quello che siamo. Se i nostri valori sono confusi, se non sappiamo cosa vogliamo proteggere — la privacy, la dignità, la libertà di scelta — l’AI finirà per amplificare proprio ciò che ci rende più fragili.
Dobbiamo formare le persone, non solo i sistemi. Far capire come si progettano prompt, ma anche come si fanno domande etiche. Valutare gli strumenti in base non solo a quanto sono potenti, ma a quanto rispettano la complessità dell’umano.
E soprattutto dobbiamo parlare. Confrontarci. Condividere. Perché il primo disastro si evita solo così: coltivando una cultura del dubbio, dell’ascolto, della responsabilità. Non possiamo fermare il progresso, ma possiamo decidere come guidarlo. Insieme.