L’AI non sbaglia: ci mostra solo quanto siamo confusi.
Podcast
News
Articoli
2
Min.

L’AI non sbaglia: ci mostra solo quanto siamo confusi.

10/27/2025

Non ha risolto i problemi di Erdős, ma forse ci ha messo davanti a un problema più profondo: il nostro bisogno di credere che l’intelligenza artificiale sia già più intelligente di noi.

Il falso miracolo dell’AI che risolve tutto

Il 17 ottobre, Kevin Weil di OpenAI ha annunciato al mondo che GPT-5 aveva risolto dieci problemi matematici irrisolti di Paul Erdős, un genio che ha dedicato la vita ai rompicapi più complessi della matematica moderna.
Per qualche ora, i social e le community tech si sono accese come ai tempi delle prime scoperte scientifiche: entusiasmo, retweet, commenti, analisi.

Poi è arrivata la doccia fredda.
Thomas Bloom, matematico e curatore del sito erdosproblems.com, ha spiegato che nessun problema era stato realmente risolto. GPT-5 non aveva scoperto nuove verità matematiche: aveva semplicemente riconosciuto riferimenti a soluzioni già pubblicate ma non aggiornate sul suo sito.
In sostanza, il modello non aveva inventato nulla, aveva solo trovato ciò che già esisteva, come un bibliotecario molto veloce e molto preciso.

Il punto non è il fallimento tecnico. È la reazione umana: quanto siamo disposti a credere che una macchina possa già superare secoli di pensiero, solo perché lo desideriamo?

Quando la conoscenza diventa eco

Questa vicenda racconta qualcosa di più del rapporto tra AI e matematica. Racconta la nostra fame di soluzioni.
Viviamo in un tempo in cui non accettiamo più l’attesa, il dubbio, l’incompiuto. Vogliamo risposte, subito. E l’AI sembra fatta apposta per darcele, anche quando non ne ha.

Ma la verità è che GPT-5 non ha “capito” Erdős. Ha solo ricomposto un puzzle di informazioni esistenti.
Proprio come noi, ogni giorno, quando leggiamo senza approfondire, commentiamo senza capire, o condividiamo un pensiero che non è davvero nostro.

Ciò che rende questo episodio interessante non è il suo errore, ma la sua somiglianza con noi.
L’AI riflette esattamente il modo in cui l’umanità oggi costruisce conoscenza: per accumulo, non per intuizione.

Il limite che ci rende umani

Il paradosso è che questo “fallimento” è forse il risultato più prezioso.
Ci ricorda che la vera intelligenza non è nella velocità con cui trovi una risposta, ma nella coscienza di ciò che ancora non sai.

Usare l’AI in modo strategico, per migliorare non per sostituire, significa tenere il controllo del processo creativo e del pensiero critico.
L’intelligenza artificiale può aiutarci a scoprire correlazioni, generare ipotesi, scrivere, sintetizzare. Ma non può ancora e forse non deve mai decidere cosa è vero, giusto o bello.

Come scriveva Paul Erdős stesso, “il progresso nasce dal dubbio.”
Forse è questo che GPT-5 ci ha ricordato, senza saperlo: la conoscenza è viva solo se accettiamo che non sarà mai completa.

Non serve un’AI che risolva i problemi irrisolti del mondo.
Serve un’umanità che impari a porsi domande migliori.