IA, “Una rosa è una rosa è una rosa”. ChatGpt non capisce cosa sia un fiore per gli umani, uno studio

  • Postato il 10 giugno 2025
  • Scienza
  • Di Blitz
  • 1 Visualizzazioni

“Rose is a rose is a rose is a rose”, il celebre incipit della poesia di Gertrude Stein (“Una rosa è una rosa è una rosa”), un trittico di tautologica ripetitività, al limite dell’iterazione misticheggiante, non dispiacerà di certo a ChatGpt.

E nemmeno piacerà, se è per questo, a meno di non istruirlo in merito. Siamo pericolosamente nella terra di mezzo fra filosofia del linguaggio e intelligenza artificiale. tra esperienza sensibile e nome della cosa.

Il fatto è che i sistemi basati sull’Intelligenza Artificiale come ChatGpt non riescono a capire davvero che cosa sia una rosa, o cosa un fiore rappresenti per un essere umano.

Per un motivo ovvio ma insormontabile: i chatbot non sono forniti di naso per gustare la fragranza di un profumo, né di epidermide per saggiare la puntura di un a spina. Tutto ciò che sanno arriva da parole, in alcuni casi da immagini. Queste informazioni non possono compensare l’assenza di un esperienza diretta, della possibilità di annusare, toccare o passeggiare in un campo pieno di fiori.

robot fiore
IA, “Una rosa è una rosa è una rosa”. ChatGpt non capisce cosa sia un fiore per gli umani, uno studio (foto Ansa-Blitzquotidiano)

Come vedete il mondo? IA e umani a confronto

Lo indica lo studio pubblicato sulla rivista Nature Human Behaviour e guidato dall’Università Statale dell’Ohio, che ha messo a confronto come IA e umani vedono il mondo che ci circonda.

I ricercatori guidati da Qihui Xu e Yingying Peng sono partiti da oltre 4.400 parole, da ‘fiore’ a ‘umoristico’, e hanno messo alla prova due famiglie di sistemi all’avanguardia: ChatGpt 3.5 e 4 di OpenAI e i modelli linguistici Palm e Gemini di Google.

Per verificare quanto modelli linguistici ed esseri umani siano allineati nelle loro valutazioni. è stato chiesto a entrambi di valutare quanto un concetto sia facile da visualizzare mentalmente e quanto sia emotivamente stimolante e poi di valutare quanto sia stretto il legame tra un concetto e le informazioni che è possibile ottenere su di esso tramite i sensi o tramite azioni.

I modelli linguistici hanno ottenuto ottimi risultati nel rappresentare parole che non avevano alcun collegamento con i sensi, ma quando si è trattato di parole strettamente legate alla percezione sensoriale hanno fallito.

“L’esperienza umana è molto più ricca di quanto le parole possano dire”

“I grandi modelli linguistici ottengono ciò che sanno assimilando enormi quantità di testo – afferma Xu – e tuttavia non riescono a catturare alcuni concetti allo stesso modo degli umani. L’esperienza umana – osserva – è molto più ricca di quanto le parole possano contenere da sole”.

Gli autori dello studio sottolineano, però, che i modelli linguistici sono in continuo miglioramento ed è quindi probabile che faranno progressi anche in questo campo, soprattutto se verranno potenziati con dati provenienti da sensori esterni che permetteranno loro di avere un esperienza diretta degli oggetti.

L'articolo IA, “Una rosa è una rosa è una rosa”. ChatGpt non capisce cosa sia un fiore per gli umani, uno studio proviene da Blitz quotidiano.

Autore
Blitz

Potrebbero anche piacerti