L’IA non è più così intelligente: gattini, balletti e fake news bruciano il cervellone artificiale
- Postato il 27 ottobre 2025
- Di Panorama
- 2 Visualizzazioni
 
                                                                            
Scorri, scorri, scorri video brevi e senza senso di gatti e balletti, oppure notizie clickbait come “Wow, non crederai mai a questo” o “Leggi qui, ti cambierà la vita”. Sono contenuti virali e spettacolarizzati che bombardano gli utenti di Internet friggendogli il cervello in un fenomeno chiamato brain rot, letteralmente “marciume cerebrale”, e lo fanno anche con i neuroni dell’intelligenza artificiale che si rincretinisce, altro che superintelligenza.
Una IA psicopatica e narcisista
Uno studio pubblicato da ricercatori dell’Università del Texas ad Austin e della Purdue University ha documentato il brain rot negli LLM, i Large Language Model ovvero i modelli linguistici di deep learning, che soffrono di deterioramento cognitivo quando vengono addestrati sui contenuti dei social. L’esperimento è stato condotto su due modelli, il Llama di Meta e il Qwen di Alibaba, che sono stati nutriti dai ricercatori con video virali e titoli clickbait e altre informazioni superficiali. Il risultato è stato un crollo delle capacità di ragionamento, di memoria e di coerenza logica crollate. E peggio ancora, i modelli hanno sviluppato quello che gli studiosi definiscono tratti oscuri della personalità: hanno mostrato atteggiamenti narcisistici e psicopatici, diventando meno etici nelle loro risposte.
La scoperta più scioccante riguarda l’irreversibilità del danno. I ricercatori hanno tentato di rieducare i modelli avvelenati con dati di qualità superiore, ma non sono riusciti a ripristinare completamente le prestazioni originali. Ormai una volta che il modello ha subito questo declino cognitivo, resta rincretinito.
Un problema non solo accademico
È un crollo che non si ferma però alla ricerca universitaria, ma si riflette nella vita di tutti i giorni. Le grandi aziende tecnologiche danno in pasto alle loro intelligenze artificiali contenuti provenienti dai social pensati per l’engagement, puntando sulla quantità piuttosto che sulla qualità, convinte che più dati vengono raccolti, più potente diventa il modello. L’addestramento su contenuti virali «può sembrare un’operazione di ampliamento dei dati, ma può corrodere il ragionamento, l’etica e l’attenzione», afferma Junyuan Hong, professore all’Università Nazionale di Singapore che ha collaborato alla ricerca.
Non solo, i contenuti generati dall’intelligenza artificiale a loro volta vengono riutilizzati per addestrare nuove versioni dei modelli di deep learning. Cosicché si crea un circolo vizioso: ogni interazione peggiora la qualità delle risposte, perché i modelli iniziano a basarsi copie dei dati originali piuttosto che su fonti originali. È una degenerazione graduale, come quando si fanno fotocopie di fotocopie.
Se l’intelligenza artificiale diventa più stupida e meno etica, generando a sua volta contenuti spazzatura, le conseguenze ricadono sugli esseri umani che si interfacciano con questi modelli: vengono colpiti nuovamente dal brain rot, diffondendo ancora e ancora post di gattini e titoli clickbait. Se prima la preoccupazione era che l’IA potesse superare l’intelligenza umana, a questo punto il timore è che possa farlo rendendo il cervello umano più ottuso.
 
                         
                     
                                                                                                         
                            