Il dilemma di Socrate rivive nell’IA

  • Postato il 12 ottobre 2025
  • Di Focus.it
  • 1 Visualizzazioni
Da oltre duemila anni l'umanità si interroga su una questione profonda: la conoscenza è innata o si acquisisce con l'esperienza? Oggi, con l'avvento dell'intelligenza artificiale, il dibattito è tornato d'attualità, tanto che un gruppo di ricercatori dell'Università di Cambridge e dell'Università Ebraica di Gerusalemme ha deciso di porre a ChatGPT un antico problema matematico, lo stesso che Socrate utilizzava per mettere alla prova i suoi allievi: il celebre "problema del raddoppio del quadrato". Nella narrazione di Platone, lo studente, credendo di aver trovato la soluzione, raddoppiava la lunghezza dei lati del quadrato, senza rendersi conto che così ne quadruplicava l'area. La vera risposta, spiegava Socrate, consiste invece nel costruire un nuovo quadrato con lato pari alla diagonale del primo.. L'esperimento digitale. I ricercatori hanno scelto di sottoporre a ChatGPT lo stesso quesito per verificare se un modello linguistico, addestrato quasi esclusivamente sui testi, potesse "scoprire" la soluzione senza averla mai letta. In teoria, la probabilità che il problema fosse presente nei dati di addestramento era molto bassa, dunque un'eventuale risposta corretta avrebbe suggerito una forma di apprendimento autonomo. Inizialmente, il chatbot ha affrontato il compito con sorprendente coerenza logica, mostrando di comprendere la richiesta e fornendo un ragionamento vicino a quello di un vero studente. Ma quando gli è stato chiesto di raddoppiare l'area di un rettangolo, ha commesso un errore: ha affermato che la diagonale non può essere usata per questo scopo, negando di fatto l'esistenza di una soluzione geometrica.. Intuizione artificiale. Per i ricercatori, quel passo falso è stato rivelatore: l'errore non derivava da una citazione o da un testo esistente, ma da un'elaborazione autonoma; in altre parole, ChatGPT sembrava comportarsi come un allievo che prova, sbaglia e riformula le proprie ipotesi in base all'esperienza precedente. È un atteggiamento "learner-like" (simile a quello di uno studente, per l'appunto), che ricorda il concetto pedagogico di zona di sviluppo prossimale elaborato dallo psicologo sovietico Lev Vygotskij nel secolo scorso, ossia "lo spazio tra ciò che si sa e ciò che si può imparare con il giusto aiuto". Questo suggerisce che l'intelligenza artificiale, pur non possedendo una coscienza, può simulare un processo cognitivo simile a quello umano, costruendo connessioni e analogie anche in assenza di esempi diretti nel suo addestramento.. Lezioni per il futuro. Lo studio è degno di nota anche per un altro motivo, e cioè perché offre nuovi spunti per comprendere cosa significhi davvero "pensare" per una macchina. Gli autori invitano però alla cautela: non è corretto dire che ChatGPT ragiona come un essere umano, poiché il suo comportamento resta frutto di correlazioni statistiche, non di comprensione consapevole. Ciò nonostante, gli esperimenti mostrano quanto sia utile imparare a interagire con l'IA in modo più didattico, privilegiando prompt che stimolino l'esplorazione ("analizziamo insieme questo problema") piuttosto che la semplice richiesta di una risposta. In prospettiva, i ricercatori immaginano nuovi modelli che uniscano chatbot e software di geometria dinamica, capaci di collaborare con studenti e insegnanti per scoprire i principi matematici in maniera intuitiva. Un modo, forse, per far dialogare Socrate e l'intelligenza artificiale, separati da 2.400 anni, ma uniti dallo stesso desiderio di capire come nascono le idee..
Autore
Focus.it

Potrebbero anche piacerti