Universitat Oberta de Catalunya

Les màquines salvatges

A finals de 2022, el Museu d’Art Modern de Nova York (MOMA) va exposar Unsupervised, la primera obra creada amb intel·ligència artificial que entrava amb tots els honors en aquell santuari de l’art contemporani. Refik Anadol, el seu creador, havia entrenat una xarxa neuronal amb dades del fons d’art del museu i havia introduït instruccions i acotaments, però, a partir d’aquí, va deixar que un sistema automatitzat generés, al seu aire, un flux d’imatges en moviment continu. L’artista acotava. La màquina feia.

Ara com ara, el terreny continua condicionat per la imprevisibilitat algorítmica. Els projectes de creació amb IA s’esforcen a explorar les possibilitats ocultes de la màquina, intenten determinar el resultat, busquen el control del procés i de l’obra resultant… però l’evidència confirma que la creativitat artificial és aleatòria. En certa manera, indomable.

Desconeixem què passa dins el laberint algorítmic. Provem d’escriure prompts llarguíssims i delimitar el context amb l’esperança que la màquina executi la nostra voluntat, però la IA no es deixa governar fàcilment. La màquina fa. A vegades, el resultat ens complau, tot i que sovint ens desconcerta. O ens enganya.

Per alguns col·lectius aquesta imprevisibilitat pot ser inspiradora. En els àmbits professionals, en canvi, tanta inconsistència provoca perplexitat. Aquí es demana control, certesa, confiança… Les organitzacions recelen d’una tecnologia encara voluble, però també van assumint que no els queda més remei que provar-la i mirar de trobar-li el punt. Esperen que el cavall salvatge es pugui domar.

Al·lucinacions que no cessen

Demanen acabar, per exemple, amb les al·lucinacions, és a dir, amb els errors, però aquests perduren tot i les millores en la capacitat i refinament dels models de llenguatge actuals.

Fa uns mesos, es va fer viral un prompt del professor Gary Marcus en què demanava al ChatGPT que generés la imatge d’una habitació buida sense cap elefant. «Sobre tot, cap elefant a l’habitació». El resultat no podia ser més explícit.

Anadol
Figura 1. Resultat del prompt. Font: Gary Marcus

A l’abril, l’Organització Mundial de la Salut va presentar Sarah, un avatar virtual disposat a aconsellar la població les 24 hores del dia. De seguida es va comprovar que, de tant en tant, s’equivocava o donava respostes contradictòries a una mateixa consulta.

McDonald’s va cancel·lar un projecte d’autoservei gestionat amb IA que va posar en marxa amb la tecnologia d’IBM per la quantitat d’errors en les comandes que generava el sistema. Li costava identificar l’accent d’algunes veus dels clients, es confonia amb el soroll de fons o no entenia comandes complexes.

Van passant els mesos, van sorgint nous models, però els generadors de text encara s’inventen fets i els d’imatge encara s’emboliquen amb el nombre de dits que tenen les mans humanes.

Programats per inventar

En principi es fa difícil pensar que una tecnologia tan inestable arribi a inspirar confiança, però el desplegament accelerat de la IA generativa es basa en la creença que aquest estadi aviat se superarà i més val posar-s’hi abans no sigui massa tard.

Diverses investigacions publicades al llarg de l’any aigualeixen, però, aquesta convicció: potser aquest estadi de precisió no acabi d’arribar mai.

Un article publicat per la revista del MIT explica que els models de llenguatge no s’inventen coses perquè sí, sinó perquè estan programats per fer-ho. No busquen dades precises, sinó que generen textos, imatges o el que sigui a partir de les probabilitats estadístiques que els suggereixen les dades.

«En la IA tot és al·lucinació, però només ho anomenem així quan notem que està malament. El problema és que els grans models de llenguatge són tan bons en allò que fan que allò que inventen sembla correcte gairebé sempre. I això fa que sigui difícil confiar-hi.»

Un altre article, aquest d’un grup d’investigadors de Google, reconeix que moltes de les manipulacions i desinformacions que es generen amb IA no es deuen només a la mala intenció dels manipuladors ni violen explícitament les polítiques de contingut o de prestació del servei de les aplicacions. Simplement s’aprofiten de les facilitats per a la fabulació que proporcionen les mateixes eines. «Són una característica, no un error».

El control impossible

Volem que no al·lucini, però també pretenem que la IA ens cregui, que sigui dòcil amb els nostres desitjos, que es deixi controlar. Adoptem la IA com una eina i esperem que es comporti com a tal. Però, a la pràctica, per aconseguir que la IA s’adapti més o menys al que volem, cal introduir llargues llistes d’instruccions i moltes dades de context.

Pregunta 1. Realment es pot arribar a controlar la IA? Opinions expertes en dubten.

«Mentre els grans models lingüístics siguin probabilístics, hi haurà un element d’atzar en allò que produeixin. Tira 100 daus i obtindràs un patró. Tira’ls novament i n’obtindràs un altre. Fins i tot si els daus, com els grans models lingüístics, es ponderen per produir alguns patrons amb molta més freqüència que altres, els resultats no seran sempre idèntics. Un error entre 1.000 (o 100.000) acumula molts errors si considerem les vegades que es fa servir aquesta tecnologia cada dia», diu l’article del MIT.

Una eina que no és una eina

Ens prenem la IA com una eina, però tal vegada no ho és una eina, no com les hem entès fins ara. Potser estem parlant d’una altra cosa i continuem encaparrats a relacionar-nos amb la IA com si fos una mena de martell sofisticat.

Mentre continuem pendents de confirmar si la IA és de fiar de la manera que ho pot ser un martell, les grans tecnològiques avancen cap a nous estadis per cedir més responsabilitat i poder a la IA. És el camí que s’està seguint, per exemple, amb els anomenats agents d’intel·ligència artificial, programes que tenen certa autonomia per actuar en el nostre nom seguint unes pautes que els hem marcat, de moment amb accions senzilles (busca’m un restaurant per a demà a la nit, prepara’m un viatge…) però amb l’ambició d’abordar més complexitat.

En poc temps, els bots poden passar de ser els nostres assistents imperfectes a actuar per delegació. D’ajudar-nos a fer coses, a fer-les directament. I en aquest nou estadi, ja no necessitarem el control. En tindrem prou en fer-hi confiança. Com Refik Anadol, deixarem que la màquina faci. Unsupervised.

Anadol
Figura 2. Unsupervised, Museu d’Art Modern de Nova York. Font: Refik Anadol

Pregunta 2. Confiarem en els agents automatitzats si encara no hem superat la fase d’errors i al·lucinacions dels assistents actuals?

Depèn del marge que estiguem disposats a concedir i a tolerar. Ara per ara, desconfiem de la volatilitat d’aquestes «eines», però la nostra feblesa per gestionar la complexitat del món ens aboca a una dependència de la tecnologia com mai havíem tingut. Tot és massa difícil per nosaltres, les nostres capacitats tenen un límit. Necessitem ajuda.

Si els humans no donem a l’abast per afrontar el món que ve, haurem de trobar alguna solució, refiar-nos d’alguna cosa, i avui per avui, la humanitat ha dipositat la fe en tecnologies com la IA. Si aquestes tecnologies no són exactes, ens haurem de resignar a allò que ens puguin oferir. La probabilitat en lloc de la precisió. L’error com a mal menor. Les al·lucinacions com a normalitat.

A una eina li exigim que no falli. D’una IA en tindrem prou amb establir un marge tolerable d’actuació. Un marc d’autonomia. Si el respecten, no ens importarà que els dipositaris de la nostra confiança siguin màquines salvatges que no podem controlar del tot. No caldrà. Farem que siguin els nostres interlocutors amb la complexitat i deixarem que actuïn per compte nostre dins de certs paràmetres. Tal vegada l’encertin, però davant la impossibilitat que ens ofereixin certesa, acceptarem construir un món de probabilitats i ens adaptarem als capricis de la seva aleatorietat. Creuarem els dits i deixarem que la màquina hi faci més que nosaltres.

Documentació

DOUGLAS HEAVEN, Will (2024). «Why does AI hallucinate?». MIT Technology Review [en línia]. Disponible a: https://www.technologyreview.com/2024/06/18/1093440/what-causes-ai-hallucinate-chatbots/

LACORT, Javier (2024). «La IA todavía no está lista para entender nuestros pedidos de comida. Un gigante como McDonald’s acaba de comprobarlo». Xataka [en línia]. Disponible a: https://www.xataka.com/robotica-e-ia/ia-todavia-no-esta-lista-para-entender-nuestros-pedidos-comida-gigante-como-mcdonalds-acaba-comprobarlo

MAIBERG, Emanuel (2024). «Google: AI Potentially Breaking Reality Is a Feature Not a Bug». 404 Media [en línia]. Disponible a: https://www.404media.co/google-ai-potentially-breaking-reality-is-a-feature-not-a-bug/

MARCUS, Gary (2024). «There Must be Some Misunderstanding». Marcus on AI [en línia]. Disponible a: https://garymarcus.substack.com/p/there-must-be-some-misunderstanding

WORLD HEALTH ORGANIZATION (s.d.). «Meet S.A.R.A.H. A Smart AI Resource Assistant for Health». World Health Organization [en línia]. Disponible a: https://www.who.int/campaigns/s-a-r-a-h


Cita recomanada: ROSÉS, Joan. Les màquines salvatges. Mosaic [en línia], octubre 2024, no. 201. ISSN: 1696-3296. DOI: https://doi.org/10.7238/m.n201.2405

Deja un comentario