"ChatGPT e le sfide nell'interpretazione delle metafore cromatiche"
"Scopri come ChatGPT affronta le sfide nell'interpretazione delle metafore cromatiche nel 2025."

“Esplorazione dei limiti di ChatGPT nell’interpretazione delle metafore cromatiche”

Un recente studio pubblicato sulla rivista Cognitive Science ha sollevato una questione intrigante: può un modello linguistico come ChatGPT afferrare i colori e le loro sfumature metaforiche? La ricerca, diretta dalla professoressa Lisa Aziz-Zadeh del USC Center for the Neuroscience of Embodied Cognition, ha messo in evidenza che l’elaborazione linguistica, quando limitata a dati testuali, presenta significativi limiti rispetto all’esperienza umana.

Il ruolo del linguaggio e dell’esperienza

ChatGPT funziona analizzando enormi quantità di testo, generando risposte basate su schemi statistici. Espressioni come “vedere nero” o “sentirsi rosso” fanno parte del suo repertorio linguistico, ma, a differenza degli esseri umani, il modello non ha mai avuto l’opportunità di vivere direttamente un cielo blu o una mela rossa. La professoressa Aziz-Zadeh ha commentato: “ChatGPT utilizza una vasta gamma di dati linguistici per calcolare probabilità e produrre risposte che sembrano molto umane. Ciò che vogliamo esplorare è se l’apprendimento statistico sia sufficiente per elaborare il linguaggio e come l’esperienza vissuta influisca su questo processo.”

Il team di ricerca ha coinvolto esperti di istituzioni come UC San Diego, Stanford, Université de Montréal, University of the West of England e Google DeepMind. Lo studio ha ricevuto supporto da un Google Faculty Gift, dalla Barbara and Gerson Bakar Faculty Fellowship e dalla Haas School of Business dell’Università di Berkeley, senza che Google fosse direttamente coinvolto nella raccolta e analisi dei dati.

Colori e metafore: un confronto tra umani e AI

I ricercatori hanno condotto sondaggi online con quattro gruppi distinti: adulti vedenti, adulti daltonici, pittori professionisti e ChatGPT. Ogni gruppo ha associato colori a concetti astratti e ha interpretato sia metafore comuni, come “allerta rossa”, sia nuove, come “festa molto rosa”. I risultati hanno rivelato che sia i vedenti che i daltonici fornivano risposte simili, mentre i pittori si sono dimostrati più abili nell’interpretare metafore nuove, grazie alla loro esperienza diretta con i colori.

ChatGPT, sebbene produca associazioni coerenti e spiegazioni basate su riferimenti culturali ed emotivi, ha mostrato delle lacune. Ad esempio, ha dichiarato che “Rosa è spesso associato a felicità, amore e gentilezza, il che suggerisce che la festa fosse piena di emozioni positive”. Tuttavia, il modello ha faticato a utilizzare riferimenti esperienziali e ha avuto difficoltà con metafore insolite come “la riunione lo rese viola” o con inversioni di associazioni, come “l’opposto del verde”.

I limiti dei modelli linguistici

Aziz-Zadeh ha evidenziato che lo studio dimostra chiaramente che gli esseri umani non si affidano esclusivamente all’apprendimento statistico per interpretare il linguaggio. L’esperienza corporea e diretta del mondo gioca un ruolo cruciale nel ragionamento. La capacità di toccare i colori, percepirli visivamente o associarli a esperienze personali consente di costruire significati più ricchi rispetto a quanto possa fare un modello linguistico che si basa solo su testi.

Di conseguenza, il team di ricerca ha messo in luce come l’AI, pur mostrando coerenza nelle associazioni e capacità di spiegazione, rimanga confinata a un livello simbolico e culturale. In futuro, l’integrazione di input sensoriali — visivi, tattili o legati ad altre forme di percezione — potrebbe rappresentare un passo fondamentale per colmare il divario tra le capacità umane e quelle dei modelli linguistici, avvicinando le AI a una cognizione più simile a quella umana.