Universitat Oberta de Catalunya

Las máquinas salvajes

A finales de 2022, el Museo de Arte Moderno de Nueva York (MOMA) expuso Unsupervised, la primera obra creada con inteligencia artificial que entraba con todos los honores en aquel santuario del arte contemporáneo. Refik Anadol, su creador, había entrenado una red neuronal con datos del fondo de arte del museo y había introducido instrucciones y acotamientos, pero, a partir de aquí, dejó que un sistema automatizado generara, a su aire, un flujo de imágenes en movimiento continuo. El artista acotaba. La máquina hacía.

Por ahora, el funcionamiento de la IA continúa condicionado por la imprevisibilidad algorítmica. Los proyectos de creación con IA se esfuerzan en explorar las posibilidades ocultas de la máquina, intentan determinar el resultado, buscan el control del proceso y de la obra resultante… pero la evidencia confirma que la creatividad artificial es aleatoria. En cierto modo, indomable.

Desconocemos qué pasa dentro del laberinto algorítmico. Probamos a escribir prompts larguísimos y delimitar el contexto con la esperanza de que la máquina ejecute nuestra voluntad, pero la IA no se deja gobernar fácilmente. La máquina hace. A veces, el resultado nos complace, aunque a menudo nos desconcierta. O nos engaña.

Para algunos colectivos esta imprevisibilidad puede ser inspiradora. En los ámbitos profesionales, en cambio, tanta inconsistencia provoca perplejidad. Aquí se pide control, certeza, confianza… Las organizaciones recelan de una tecnología todavía voluble, pero también van asumiendo que no les queda más remedio que probarla y mirar de encontrarle el punto. Esperan que el caballo salvaje se pueda domar.

Alucinaciones que no cesan

Piden acabar, por ejemplo, con las alucinaciones, es decir, con los errores, pero estos perduran a pesar de las mejoras en la capacidad y refinamiento de los modelos de lenguaje actuales.

Hace unos meses, se hizo viral un prompt del profesor Gary Marcus en el que pedía a ChatGPT que generara la imagen de una habitación vacía sin ningún elefante. «Sobre todo, ningún elefante en la habitación». El resultado no pudo ser más explícito.

Anadol
Figura 1. Resultado del prompt. Fuente: Gary Marcus

En abril, la Organización Mundial de la Salud presentó Sarah, un avatar virtual dispuesto a aconsejar a la población las 24 horas del día. Enseguida se comprobó que, de vez en cuando, se equivocaba o daba respuestas contradictorias a una misma consulta.

McDonald’s canceló un proyecto de autoservicio gestionado con IA que puso en marcha con la tecnología de IBM por la cantidad de errores en los pedidos que generaba el sistema. Le costaba identificar el acento de algunas voces de los clientes, se confundía con el ruido de fondo o no entendía pedidos complejos.

Van pasando los meses, van surgiendo nuevos modelos, pero los generadores de texto todavía se inventan hechos y los de imagen todavía se lían con el número de dedos que tienen las manos humanas.

Programados para inventar

En principio se hace difícil pensar que una tecnología tan inestable llegue a inspirar confianza, pero el despliegue acelerado de la IA generativa se basa en la creencia de que este estadio pronto se superará y más vale ponerse a ello antes de que sea demasiado tarde.

Varias investigaciones publicadas a lo largo del año ponen en entredicho, no obstante, esta convicción: quizás este estadio de precisión no acabe de llegar nunca.

Un artículo publicado por la revista del MIT explica que los modelos de lenguaje no se inventan cosas porque sí, sino porque están programados para hacerlo. No buscan datos precisos, sino que generan textos, imágenes o lo que sea a partir de las probabilidades estadísticas que les sugieren los datos.

«En la IA todo es alucinación, pero solo lo denominamos así cuando notamos que está mal. El problema es que los grandes modelos de lenguaje son tan buenos en lo que hacen que lo que inventan parece correcto casi siempre. Y esto hace que sea difícil confiar en ellos.»

Otro artículo, éste de un grupo de investigadores de Google, reconoce que muchas de las manipulaciones y desinformaciones que se generan con IA no se deben solo a la mala intención de los manipuladores ni violan explícitamente las políticas de contenido o de prestación del servicio de las aplicaciones. Simplemente se aprovechan de las facilidades para la fabulación que proporcionan las propias herramientas. «Son una característica, no un error».

El control imposible

Queremos que no alucine, pero también pretendemos que la IA nos obedezca, que sea dócil con nuestros deseos, que se deje controlar. Adoptamos la IA como una herramienta y esperamos que se comporte como tal. Pero, en la práctica, para conseguir que la IA se adapte más o menos a lo que queremos, hay que introducir largas listas de instrucciones y muchos datos de contexto.

Pregunta 1. ¿Realmente se puede llegar a controlar la IA? Opiniones expertas lo dudan.

«Mientras los grandes modelos lingüísticos sean probabilísticos, habrá un elemento de azar en aquello que produzcan. Tira 100 dados y obtendrás un patrón. Tíralos de nuevo y obtendrás otro. Incluso si los datos, como en los grandes modelos lingüísticos, se ponderan para producir algunos patrones con mucha más frecuencia que otros, los resultados no serán siempre idénticos. Un error entre 1.000 (o 100.000) acumula muchos errores si consideramos las veces que se usa esta tecnología cada día», dice el artículo del MIT.

Una herramienta que no es una herramienta

Nos tomamos la IA como una herramienta, pero tal vez no lo sea, no como hemos entendido las herramientas hasta ahora. Quizás estamos hablando de otra cosa y continuamos empecinados en relacionarnos con la IA como si fuera una especie de martillo sofisticado.

Mientras tratamos de confirmar si la IA es de fiar de la manera en que lo puede ser un martillo, las grandes tecnológicas avanzan hacia nuevos estadios para ceder más responsabilidad y poder a la IA. Es el camino que se está siguiendo, por ejemplo, con los llamados agentes de inteligencia artificial, programas que tienen cierta autonomía para actuar en nuestro nombre siguiendo unas pautas que les hemos marcado, de momento con acciones sencillas (búscame un restaurante para mañana por la noche, prepárame un viaje…) pero con la ambición de abordar más complejidad.

En poco tiempo, los bots pueden pasar de ser nuestros asistentes imperfectos a actuar por delegación. De ayudarnos a hacer cosas, a hacerlas directamente. Y en este nuevo estadio, ya no necesitaremos el control. Bastarà con que confiemos en ellos. Como Refik Anadol, dejaremos que la máquina haga. Unsupervised.

Anadol
Figura 2. Unsupervised, Museo de Arte Moderno de Nueva York. Fuente: Refik Anadol

Pregunta 2. ¿Confiaremos en los agentes automatizados si todavía no hemos superado la fase de errores y alucinaciones de los asistentes actuales?

Depende del margen que estemos dispuestos a conceder y a tolerar. Hoy por hoy, desconfiamos de la volatilidad de estas «herramientas», pero nuestra debilidad para gestionar la complejidad del mundo nos aboca a una dependencia de la tecnología como nunca habíamos tenido. Todo es demasiado difícil, nuestras capacidades tienen un límite. Necesitamos ayuda.

Si los humanos no nos bastamos para afrontar el mundo que viene, tendremos que encontrar alguna solución, fiarnos de algo, y actualmente, la humanidad ha depositado la fe en tecnologías como la IA. Si estas tecnologías no son exactas, nos tendremos que resignar a aquello que nos puedan ofrecer. La probabilidad en lugar de la precisión. El error como mal menor. Las alucinaciones como normalidad.

A una herramienta le exigimos que no falle. A una IA tendremos bastante con establecerle un margen tolerable de actuación. Un marco de autonomía. Si lo respetan, no nos importará que los depositarios de nuestra confianza sean máquinas salvajes que no podemos controlar del todo. No será necesario. Serán nuestros interlocutores con la complejidad y dejaremos que actúen por nosotros dentro de ciertos parámetros. Tal vez acierten, pero ante la imposibilidad de que nos ofrezcan certeza, aceptaremos construir un mundo de probabilidades y nos adaptaremos a los caprichos de su aleatoriedad. Cruzaremos los dedos y dejaremos que la máquina haga lo que pueda.

Documentación

DOUGLAS HEAVEN, Will (2024). «Why does AI hallucinate?». MIT Technology Review [en línea]. Disponible en: https://www.technologyreview.com/2024/06/18/1093440/what-causes-ai-hallucinate-chatbots/

LACORT, Javier (2024). «La IA todavía no está lista para entender nuestros pedidos de comida. Un gigante como McDonald’s acaba de comprobarlo». Xataka [en línea]. Disponible en: https://www.xataka.com/robotica-e-ia/ia-todavia-no-esta-lista-para-entender-nuestros-pedidos-comida-gigante-como-mcdonalds-acaba-comprobarlo

MAIBERG, Emanuel (2024). «Google: AI Potentially Breaking Reality Is a Feature Not a Bug». 404 Media [en línea]. Disponible en: https://www.404media.co/google-ai-potentially-breaking-reality-is-a-feature-not-a-bug/

MARCUS, Gary (2024). «There Must be Some Misunderstanding». Marcus on AI [en línea]. Disponible en: https://garymarcus.substack.com/p/there-must-be-some-misunderstanding

WORLD HEALTH ORGANIZATION (s.d.). «Meet S.A.R.A.H. A Smart AI Resource Assistant for Health». World Health Organization [en línea]. Disponible en: https://www.who.int/campaigns/s-a-r-a-h


Cita recomendada: ROSÉS, Joan. Las máquinas salvajes. Mosaic [en línea], octubre 2024, no. 201. ISSN: 1696-3296. DOI: https://doi.org/10.7238/m.n201.2405

Deja un comentario