Un recente studio pubblicato sulla rivista Cognitive Science ha sollevato una questione intrigante: può un modello linguistico come ChatGPT afferrare i colori e le loro sfumature metaforiche? La ricerca, diretta dalla professoressa Lisa Aziz-Zadeh del USC Center for the Neuroscience of Embodied Cognition, ha messo in evidenza che l’elaborazione linguistica, quando limitata a dati testuali, presenta significativi limiti rispetto all’esperienza umana.
Il ruolo del linguaggio e dell’esperienza
ChatGPT funziona analizzando enormi quantità di testo, generando risposte basate su schemi statistici. Espressioni come “vedere nero” o “sentirsi rosso” fanno parte del suo repertorio linguistico, ma, a differenza degli esseri umani, il modello non ha mai avuto l’opportunità di vivere direttamente un cielo blu o una mela rossa. La professoressa Aziz-Zadeh ha commentato: “ChatGPT utilizza una vasta gamma di dati linguistici per calcolare probabilità e produrre risposte che sembrano molto umane. Ciò che vogliamo esplorare è se l’apprendimento statistico sia sufficiente per elaborare il linguaggio e come l’esperienza vissuta influisca su questo processo.”
Il team di ricerca ha coinvolto esperti di istituzioni come UC San Diego, Stanford, Université de Montréal, University of the West of England e Google DeepMind. Lo studio ha ricevuto supporto da un Google Faculty Gift, dalla Barbara and Gerson Bakar Faculty Fellowship e dalla Haas School of Business dell’Università di Berkeley, senza che Google fosse direttamente coinvolto nella raccolta e analisi dei dati.
Colori e metafore: un confronto tra umani e AI
I ricercatori hanno condotto sondaggi online con quattro gruppi distinti: adulti vedenti, adulti daltonici, pittori professionisti e ChatGPT. Ogni gruppo ha associato colori a concetti astratti e ha interpretato sia metafore comuni, come “allerta rossa”, sia nuove, come “festa molto rosa”. I risultati hanno rivelato che sia i vedenti che i daltonici fornivano risposte simili, mentre i pittori si sono dimostrati più abili nell’interpretare metafore nuove, grazie alla loro esperienza diretta con i colori.
ChatGPT, sebbene produca associazioni coerenti e spiegazioni basate su riferimenti culturali ed emotivi, ha mostrato delle lacune. Ad esempio, ha dichiarato che “Rosa è spesso associato a felicità, amore e gentilezza, il che suggerisce che la festa fosse piena di emozioni positive”. Tuttavia, il modello ha faticato a utilizzare riferimenti esperienziali e ha avuto difficoltà con metafore insolite come “la riunione lo rese viola” o con inversioni di associazioni, come “l’opposto del verde”.
I limiti dei modelli linguistici
Aziz-Zadeh ha evidenziato che lo studio dimostra chiaramente che gli esseri umani non si affidano esclusivamente all’apprendimento statistico per interpretare il linguaggio. L’esperienza corporea e diretta del mondo gioca un ruolo cruciale nel ragionamento. La capacità di toccare i colori, percepirli visivamente o associarli a esperienze personali consente di costruire significati più ricchi rispetto a quanto possa fare un modello linguistico che si basa solo su testi.
Di conseguenza, il team di ricerca ha messo in luce come l’AI, pur mostrando coerenza nelle associazioni e capacità di spiegazione, rimanga confinata a un livello simbolico e culturale. In futuro, l’integrazione di input sensoriali — visivi, tattili o legati ad altre forme di percezione — potrebbe rappresentare un passo fondamentale per colmare il divario tra le capacità umane e quelle dei modelli linguistici, avvicinando le AI a una cognizione più simile a quella umana.