Quando l’intelligenza artificiale crede di scoprire l’acqua calda
Podcast
News
Articoli
2
Min.

Quando l’intelligenza artificiale crede di scoprire l’acqua calda

11/3/2025

Un annuncio trionfale. Un errore imbarazzante. E un interrogativo che resta: dove finisce la potenza dell’AI e dove comincia la nostra illusione?

Il trionfo che non lo era

Il 17 ottobre, Kevin Weil, supervisore della ricerca scientifica di OpenAI, pubblica su X un post che scuote il mondo della tecnologia:

“GPT-5 ha appena trovato la soluzione a dieci problemi irrisolti di Erdős e ha fatto progressi su altri undici.”

Un messaggio che, se fosse vero, segnerebbe un punto di svolta nella storia dell’intelligenza artificiale. Weil, fisico e matematico di Harvard, rilanciava un post del ricercatore Mark Sellke, celebrando un presunto miracolo computazionale. L’eco della notizia è immediata: riviste, forum, divulgatori. Tutti pronti a gridare al genio sintetico.

Ma qualcosa non torna. Perché la verità, come spesso accade, è più sottile del clamore.

La smentita e la realtà dei fatti

A riportare la storia con i piedi per terra è Thomas Bloom, matematico e curatore del sito erdosproblems.com, archivio dedicato alle celebri congetture di Paul Erdős.
Bloom interviene sui social, accusando OpenAI di una “clamorosa distorsione” dei risultati. Non c’era nessun trionfo matematico. GPT-5 non aveva risolto alcun problema nuovo: aveva solo trovato tracce di soluzioni già esistenti, pubblicate in articoli scientifici che il sito non aveva ancora aggiornato.

In altre parole, GPT-5 aveva scovato risposte già note, ma non le aveva create.
Il modello ha agito come un motore di ricerca iper-raffinato, non come una mente in grado di generare conoscenza. E questo mette in luce una questione cruciale: la differenza tra intelligenza e comprensione.

Cercare non è pensare. Ricomporre non è creare. È qui che l’AI mostra ancora i suoi limiti: l’abilità di trovare connessioni non coincide con la capacità di attribuire loro significato.

L’illusione della scoperta e la nostra responsabilità

Questo episodio, raccontato anche da Pier Luigi Pisa su Repubblica, non è solo una figuraccia di marketing. È una lezione sul rapporto tra uomo e macchina.
Abbiamo costruito strumenti in grado di analizzare miliardi di dati, ma non dobbiamo scambiarli per esseri pensanti. Se una macchina “scopre” qualcosa già noto, non è un fallimento dell’AI: è un fallimento del nostro modo di raccontarla.

Ogni volta che una notizia promette “miracoli” tecnologici, dovremmo chiederci: chi sta imparando davvero?
Forse non l’AI, ma noi. Perché episodi come questo ci ricordano che il valore dell’intelligenza non è nella velocità con cui risponde, ma nella coscienza con cui comprende.

L’AI può amplificare la conoscenza, ma senza una guida umana rischia di moltiplicare solo gli equivoci. Ecco il punto: l’intelligenza artificiale non è qui per sostituire il pensiero, ma per stimolarlo.
Sta a noi decidere se usarla per capire meglio il mondo o per illuderci di averlo già capito.

Fonte: post di Pier Luigi Pisa