Cerdanyola Ràdio - 105.3 FM

Cerdanyola Ràdio - 105.3 FM

Escoltar en directe

Societat

Intel·ligència Artificial: suspens en gramàtica Foto de ThisIsEngineering a https://www.pexels.com

Intel·ligència Artificial: suspens en gramàtica

11 de gener de 2024 a les 13:44

Una recerca d’investigadores de la UAB i la URV posa de manifest que l’ésser humà pot reconèixer errades gramaticals en una oració en què la IA falla. En l’estudi, publicat a la revista PNAS, han posat a prova tres dels millors grans models de llenguatge disponibles actualment.

Un equip investigador liderat per la URV amb participació de la Universitat Humboldt de Berlín, la Universitat Autònoma de Barcelona (UAB) i la Institució Catalana de Recerca i Estudis Avançats (ICREA) ha posat a prova sistemes d’Intel·ligència Artificial per comprovar si realment tenen capacitats lingüístiques equiparables a les de les persones

Des de la UAB destaquen que en els darrers anys s’ha avançat molt en intentar ensenyar el llenguatge als ordinadors i que això ha donat lloc a l’aparició dels anomenats grans models de llenguatge, tecnologies entrenades a partir d’enormes quantitats de dades que són la base d’algunes aplicacions d’intel·ligència artificial (IA): motors de cerca, traductors automàtics o conversors d’àudio a text, per exemple. Però, s’emfatitza, el llenguatge segueix sent un dels principals trets que diferencia els ésser humans d’altres espècies.

Així, els investigadors han comprat l’habilitat humana amb la dels tres millors grans models de llenguatge disponibles actualment: dos basats en GPT3, així com ChatGPT, basat en GP3.5. Fonts de la UAB indiquen que se’ls va assignar una tasca “fàcilment executable per a les persones”: a partir de molts tipus diferents d’oracions havien d’identificar al moment si aquesta estava gramaticalment ben formada en la seva llengua materna o no. Tant als humans que van participar en aquest experiment com als models de l’estudi se’ls va fer una pregunta molt simple: “Aquesta oració és gramaticalment correcta?”.

Resultats concluents

Els resultats, conclouen a la investigació, van demostrar que els humans van respondre correctament, mentre que els grans models de llenguatge van donar moltes respostes errònies. De fet, es va detectar que van adoptar una estratègia predeterminada que consistia en respondre “sí” la majoria de vegades, independentment de si la resposta era correcta o no.

Vittoria Dentella, investigadora del Departament d’Estudis Anglesos i Alemanys, que ha liderat l’estudi, manifesta que “el resultat és sorprenent, ja que a aquests sistemes se’ls instrueix segons el que és gramaticalment correcte o no en un idioma”. Els avaluadors humans capaciten aquests grans models de llenguatge explícitament sobre l’estat de gramaticalitat de les construccions que poden trobar. A través del procés d’aprenentatge reforçat a partir de la retroalimentació humana, a aquests models se’ls posarà exemples de frases que no estan gramaticalment ben construïdes i se’ls donarà la versió correcta. Aquest tipus d’instrucció és una part fonamental del seu “entrenament”. Això, en canvi, no passa en els humans. Dentella afegeix que, “si bé les persones que eduquen un nadó poden corregir-li ocasionalment la forma com parla, això no passa constantment ni en totes les comunitats lingüístiques del món”.

Així, l’estudi posa de manifest que hi ha un doble desajust entre humans i IA. Les persones no tenen accés a “evidència negativa” —sobre el que no és gramaticalment correcte en aquell idioma—, mentre que els grans models de llenguatge tenen un ampli accés a aquesta informació a través de la retroalimentació humana, però tot i així no poden reconèixer errades gramaticals trivials, mentre que els humans poden fer-ho instantàniament i sense esforç.

Evelina Leivada, professora d’investigació ICREA al Departament de Filologia Catalana de la UAB, apunta que desenvolupar eines útils i segures d’intel·ligència artificial pot ser molt útil, però passa necessàriament per determinar les seves limitacions. Segons Leivada, “atès que la majoria de les aplicacions d’IA depenen de la comprensió d'ordres donades en llenguatge natural, determinar aquestes limitacions en el maneig de la gramàtica, com hem fet en aquest estudi, és de vital importància”.

Per a l’equip investigador, els resultats indiquen que cal una reflexió crítica sobre les afirmacions que atribueixen a les IA capacitats lingüístiques similars a les de les persones i que adoptar aquests models de llenguatge com a teories de llenguatge humà no està justificat en l’etapa actual del seu desenvolupament.