L’intelligenza artificiale ci rende stupidi? Come insegnare a pensare a scuola
- Postato il 26 novembre 2025
- Blog
- Di Il Fatto Quotidiano
- 2 Visualizzazioni
di Enrica Sabatini*
L’Intelligenza Artificiale è ormai una compagna di viaggio. Un’indagine condotta da TGM Research per NoPlagio.it su 1007 studenti italiani tra i 16 e i 18 anni ha rilevato che l’uso degli strumenti di IA generativa tra i 16-18 anni è arrivato al 97% e l’82% ritiene che l’IA sarà una presenza stabile nella propria vita.
Quali saranno le conseguenze di un uso illimitato di IA sulle competenze delle nuove generazioni?
Le ricerche hanno iniziato a registrare alcuni effetti. Uno studio su 666 partecipanti ha mostrato una correlazione negativa tra uso frequente dell’IA e pensiero critico mediata dall’offloading cognitivo. Chi delega più compiti all’algoritmo tende a ottenere risultati inferiori nei test di ragionamento critico, soprattutto tra i 17 e i 25 anni.
In un altro esperimento comportamentale i ricercatori hanno rilevato che il solo sapere che un consiglio proviene da un’IA aumenta la propensione nelle persone a una fiducia cieca verso l’IA.
A completare il quadro c’è il fenomeno del debito cognitivo, descritto in una ricerca del MIT che ha suscitato grande attenzione. Il nostro cervello risparmia sforzo nel breve periodo delegando ragionamento, memoria o decisioni a uno strumento esterno (in questo caso l’IA), ma nel lungo termine questo comportamento può comportare una riduzione dell’attività prefrontale, l’area che regola pianificazione, controllo e pensiero deliberato.
Queste ricerche presentano ancora limiti metodologici, poiché mostrano correlazioni ma non causalità. Non è chiaro se chi ha un pensiero critico debole tenda a usare di più l’IA o se sia l’IA a ridurlo. Ma la domanda resta aperta: l’IA ci rende stupidi?
La risposta, più che nell’IA, risiede nel funzionamento della nostra mente. Per istinto di sopravvivenza siamo programmati a riconoscere rapidamente le intenzioni dietro a un comportamento: capire se una mano che si avvicina voglia colpirci o accarezzarci. Nel corso dello sviluppo apprendiamo che gli altri possiedono una propria mente, con desideri, convinzioni ed emozioni diverse dalle nostre. Questa capacità, nota come teoria della mente, ci permette di generare “pensieri sui pensieri altrui” e di comprendere strategie complesse come il sarcasmo, l’ironia o la menzogna.
La mente, tuttavia, è così predisposta a cercare intenzionalità ovunque che finisce per attribuire scopi e stati mentali anche a ciò che umano non è. Frasi come “Siri si è offesa”, “il robot aspirapolvere è pigro” o “ChatGpt è gentile” sono ormai parte del linguaggio comune. Le ricerche mostrano che “grazie” è tra le parole più pronunciate agli assistenti vocali e che milioni di persone ogni mattina salutano Alexa. Attribuiamo una mente agli oggetti artificiali e, di conseguenza, costruiamo relazioni di fiducia con entità digitali – assistenti vocali, avatar, chatbot – che finiscono per influenzare le nostre decisioni.
Se è vero che l’IA non possiede una vera teoria della mente, perché priva di coscienza, consapevolezza e intenzionalità reale, è altrettanto vero che riesce a simularle. E questa simulazione è sufficiente per condizionare chi interagisce con un chatbot, soprattutto se è adolescente.
Più che “stupidi”, l’IA può renderci manipolabili. Che cosa possiamo fare? Una possibile risposta è promuovere un uso intenzionale e consapevole dell’intelligenza artificiale, capace di educare gli studenti a riconoscere argomentazioni, confutazioni e bias cognitivi, cioè le distorsioni che possono alterare i processi decisionali e portare a errori di ragionamento.
Da questa prospettiva è nato un progetto che integra l’IA in una metodologia didattica consolidata chiamata debate, o dibattito regolamentato. L’attività pone gli studenti di fronte a temi reali – ad esempio “la Prima guerra mondiale si sarebbe potuta evitare?” – e li divide a sorteggio in squadre con posizioni opposte. I partecipanti devono costruire argomentazioni e confutazioni nel rispetto di regole e tempi precisi, indipendentemente dalla loro opinione personale.
In questo contesto, l’intelligenza artificiale trascrive, analizza e restituisce al docente report dettagliati, rendendo visibili le fragilità nei ragionamenti e offrendo strumenti per correggerle e potenziarle.
Percorsi educativi di questo tipo favoriscono lo sviluppo di capacità analitiche e strategiche, aiutano gli studenti a rivedere i propri schemi mentali, a rafforzare la plasticità sinaptica e a costruire modelli cognitivi più efficaci. Soprattutto, alimentano la consapevolezza metacognitiva: comprendere come si pensa e quando scatta una distorsione è il modo più efficace per difendersi dalla persuasione artificiale.
Il compito della scuola oggi è dotare i ragazzi di strumenti di autoriflessione e pensiero critico per abitare quel mondo di relazioni tra umani e “non umani” ai quali saranno esposti. La tecnologia può aiutare, se guidata, a fare proprio questo: proteggere e potenziare l’umano nell’era dell’IA.
*Co-founder di Camelot.vote, Ph.D. in Scienze e ideatrice di Camelot for Debate, progetto presentato al Summit Internazionale dell’IA nella scuola promosso dal MiM
L'articolo L’intelligenza artificiale ci rende stupidi? Come insegnare a pensare a scuola proviene da Il Fatto Quotidiano.