«[Chapter 1]
The neon lights of the city flickered above the silent figure of Jessica Black, a journalist who had long ago given up on the hope of truth in a world of lies. In this dark future, corporations ruled the world, and the truth was a commodity that could be bought and sold.
As she walked through the deserted streets, Jessica couldn’t shake the feeling that she was being watched. She quickened her pace, her heart beating faster with every step.
Suddenly, a group of men emerged from the shadows, surrounding her. “We know who you are, Ms. Black,” one of them said. “And we know what you’re up to. You need to stop before it’s too late.”
But Jessica wouldn’t be intimidated. She knew that the only way to expose the truth was to keep digging. She fought back with all her might, but the men overpowered her, leaving her unconscious on the street.»
Con independencia de la preocupación que uno pueda sentir por Jessica Black (que probablemente ya se haya recuperado del ataque sufrido y esté preparando la venganza desde la sede clandestina del colectivo revolucionario), que una aplicación de IA generativa sea capaz de crear un texto así es algo que nos sorprende a todos. Y nos sorprende porque estábamos acostumbrados a interactuar con la tecnología de una forma más mecánica: yo pulso botones y tú haces cosas, yo escribo una palabra y tú buscas información relacionada, yo dibujo con el ratón y tú me muestras una línea en la pantalla. Usar el lenguaje natural –nuestro lenguaje– para relacionarnos con la tecnología es algo a lo que no estamos habituados.
Antecedentes conceptuales
Es importante destacar que, aunque lo que llamamos IA generativa puede parecer un concepto rupturista respecto a los antecedentes interactivos e informacionales, esta forma parte de un objetivo al que hace mucho tiempo que se dio forma: la idea de que las máquinas –en cualquier forma de estas– sean capaces de entender nuestro lenguaje, con el fin de poder automatizar tareas que antes requerían de nuestra intervención. Esto, sumado a sus capacidades de cálculo y procesado de los datos, daría lugar a un contexto de interacción con los ordenadores mucho más productivo. Además, abriría la posibilidad de descargar al talento y la creatividad humanas de aquellas responsabilidades de menor importancia y menos significativas en la creación del conocimiento.
Este objetivo fue plasmado de forma concreta y brillante por Tim Berners-Lee, con la conceptualización inicial de lo que se llamaría posteriormente web semántica. En realidad, el creador de la World Wide Web ya imaginó –desde el principio– una red que incluyera información semántica con datos legibles por las máquinas.
«The Web was designed as an information space, with the goal that it should be useful not only for human-human communication, but also that machines would be able to participate and help. One of the major obstacles to this has been the fact that most information on the Web is designed for human consumption, and even if it was derived from a database with well defined meanings (in at least some terms) for its columns, that the structure of the data is not evident to a robot browsing the web.» (Berners-Lee, 1998).
A posteriori, (1998) con la WWW consolidada, Berners-Lee recuperó el concepto, ya que lo consideraba crucial para ampliar la interoperabilidad de los sistemas informáticos y de vital importancia para la evolución de la Red. Lo definía de la siguiente forma:
«The Semantic Web approach instead develops languages for expressing information in a machine processable form. […] a Web in which machine reasoning will be ubiquitous and devastatingly powerful.»
Sin ánimo de dar aquí una lección de historia, es importante entender que la IA generativa no es más que una respuesta a un interés general entre muchos pensadores de las tecnologías digitales: que las aplicaciones informáticas puedan entendernos, en nuestro propio lenguaje y ayudarnos a realizar tareas, crear conocimiento, automatizar procesos, etc.
Y esta IA generativa tan de moda es fruto de una evolución multicausal que se ha venido desarrollando a lo largo de las últimas décadas. Multicausal en el sentido de que han hecho falta diferentes tecnologías, físicas y de software, para que esta sea posible. Así, el tan famoso ChatGPT no sería posible sin los modelos de lenguaje basados en transformers, que son su núcleo, o sin el aprendizaje supervisado y la ingeniería de características, pero tampoco existiría sin el desarrollo del hardware necesario para entrenar a este tipo de modelos, como las unidades de procesamiento gráfico o GPU.
IA generativa
La IA generativa es ese tipo de IA que crea cosas y se aleja del clásico reconocimiento de patrones (aunque la relación es clara). Hay quien dirá que crea contenido nuevo y original, pero esto requeriría de un artículo entero para discutir qué es nuevo y qué es original. Evitando los debates terminológicos, nos quedaremos con el término cosa, para no limitarnos al texto, las imágenes y la música, dejando las puertas abiertas a otros campos de la «creatividad» (como la facultad de crear y no como búsqueda de la originalidad). En general, son aplicaciones o modelos que funcionan sobre la base de lo que se llaman redes generativas antagónicas (GAN en inglés), que han sido entrenadas con datos reales, mediante un proceso de discriminación positiva/negativa que ayuda al sistema a generar/crear muestras cada vez más realistas.
Estos sistemas, como ChatGPT (pero también Bard, Midjourney, Firefly o Soundful), se han puesto de moda los últimos meses, aunque algunos llevan años existiendo, gracias al boom de los bots conversacionales: chatbots basados en IA. Los chatbots, que surgieron en los años sesenta de la mano de Joseph Weizerbaum (MIT) con ELIZA, están pensados para poder mantener una conversación con los seres humanos con la máxima naturalidad posible. En los años sesenta eran sistemas muy básicos que funcionaban mediante la detección de palabras clave en la entrada de texto del usuario (prompt), a la que se respondía con una frase modelo de la base de datos del sistema. Hoy, con modelos como GPT4, la respuesta es mucho más abierta y compleja, y se genera en función de un modelo de aprendizaje automático que se ha entrenado con un gran corpus de texto: libros, artículos, etc., para aprender patrones y estructuras del lenguaje humano. En resumen, el proceso sería el siguiente: recepción del prompt, procesamiento de este, generación de la respuesta y conversión de nuevo al lenguaje humano.
El sistema predice qué palabras tienen más sentido en función de la estructura del prompt original y en comparación con los patrones y las estructuras que conoce, gracias a su entrenamiento. Y esta predicción puede ser muy certera, normalmente en casos en los que hay pocos matices y de ámbito general, o muy sesgada o incorrecta, cuando el contexto no es evidente o el sistema es incapaz de interpretar las particularidades del caso. Para tareas básicas: borradores, traducción, definiciones simples, creación de títulos en función de un texto dado, resumen de textos y tareas parecidas, el sistema tiene un alto índice de acierto; pero cuando debe hacer consideraciones éticas o resolver cuestiones más complejas, la cosa cambia de forma significativa. En los casos controvertidos aparecen los sesgos, si somos capaces de superar las limitaciones impuestas al modelo para este tipo de situaciones:
Problemáticas interesadas
La inteligencia artificial generativa no es un artefacto mágico, es tecnología pura. Pero cuando no somos capaces de entender cómo funciona un fenómeno (véase la larga historia de la humanidad y sus místicas aproximaciones a lo a priori incomprensible o demostrado incognoscible) tenemos tendencia a procesarlo con el asombro, la desconfianza y el miedo que nos genera el imprevisible desconocido. Y en este estado mental es muy fácil magnificar las cosas, creérselo todo, imaginar posibilidades sin límite o peligros engrandecidos. En un contexto informacional altamente manipulado, donde las motivaciones de los medios de comunicación distan mucho de ser puras y positivas, y donde las redes sociales se han convertido en altavoces de noticias falsas y manipulación informativa, se crea el terreno propicio para que postulados como el publicado recientemente por el Center for AI Safety tengan un profundo impacto entre las masas. Surge la idea de que los peligros inmediatos asociados a la IA incluyen la posibilidad de destruir el mundo tal como lo conocemos e incluso llevarnos a la extinción de la especie.
«Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war.» (CENTER FOR AI SAFETY, 2023).
Planteado así, sin desarrollar la cuestión y sin plantear argumentos que la sostengan, parece más una distracción de las problemáticas reales e inmediatas que una respuesta a una preocupación sincera. Si además nos fijamos en los firmantes de la declaración: Sam Altman (CEO de OpenAI), Demis Hassabis (CEO de Google DeepMind) o Albert Efimov (Russian Association of Artificial Intelligence), entre otros muchos CEO de empresas con grandes intereses económicos relacionados con la IA –sin que esto sirva para desconfiar de las intenciones de los académicos que también firman la declaración–, la desconfianza que esto debe generarnos es evidente. Probablemente, bajo la brevedad del texto publicado, que puede parecer que persigue claridad y finura, se escondan otras intenciones.
Recogiendo las palabras de un colega, en una conversación improvisada, es como cuando escuchas a algunos científicos nucleares hablar de la preocupación por la proliferación de la amenaza nuclear en público, mientras preparan mejoras y avances para sus bombas atómicas en privado. Para una buena parte de los firmantes de esta declaración, la IA es solo una gran fuente de beneficios potenciales: una máquina de generar dinero. Y esto no tiene por qué significar que no les apasione la tecnología, o que no sientan una admiración absoluta por los avances de la inteligencia artificial, pero los intereses principales son los que son.
Y aunque es cierto que esta declaración está centrada en la IA en general, probablemente pensando en lo que se suele llamar inteligencia artificial fuerte, completa o general (AGI)(1)–que está a años luz de ser posible, dado el estado actual de la investigación y el desarrollo en neurociencia e inteligencia artificial–, el enfoque no difiere mucho de cuando hablamos de la inteligencia artificial generativa, que nos ocupa en este artículo.
Y el alarmismo no acaba con la destrucción de la especie en manos de una reencarnación modernizada de Skynet, sino que se extiende a afirmaciones como que la IA generativa «nos volverá a todos tontos» (como antes las calculadoras, los ordenadores o Google), «que acabará con la creatividad» (como la piratería hace unos años) o «que nos dejará a todos sin trabajo» (como el software de contabilidad con los contables o los drones y robots con transportistas y mozos de almacén). Todo este conjunto de afirmaciones no tiene ninguna base sólida desde el punto de vista argumentativo. La manera en la que aprendemos, trabajamos, creamos o manipulamos la información va a cambiar, seguro, como lo ha ido haciendo a lo largo de nuestra historia. Pero el alarmismo radical que se está generando desde algunos flancos responde más bien o a la necesidad de mantener un hype continuo para el innoble arte del clickbait,o aldesconocimiento del funcionamiento y el alcance de estas tecnologías.
Cuando se popularizó internet, con el abaratamiento de los costes de acceso tanto a los ordenadores como a las conexiones a la Red, y Google empezó a ganar fama como puerta de entrada a la información en línea, muchos afirmaron que nadie volvería a coger un libro, leer un periódico o consultar un diccionario, y se equivocaron. Lo que realmente pasó es que empezamos a leer los periódicos en formato digital, consultar los diccionarios en línea y leer los libros en nuevos dispositivos. A la vez, aparecieron nuevos medios fruto de la remediación y la hibridación, fenómeno que Manovich describió muy bien en su Software Takes Command ya en 2013: la hibridación responde a una fusión entre elementos que comparten técnicas de software e interfaces, lo que genera una experiencia nueva y coherente, diferente a la experimentación de los elementos por separado (Adell, 2014). Un fenómeno que va a repetirse con la IA generativa, y seguirá ocurriendo mientras exista nuestra especie y esta siga evolucionando.
Y este análisis-valoración puede extenderse a la práctica totalidad de afirmaciones alarmistas que se han generado últimamente a raíz de la popularización de la IA generativa: «ni nos volveremos más tontos, ni dejaremos de ser creativos, ni perderemos todos nuestros trabajos», como mínimo no por culpa de ChatGPT. No obstante, la forma de acceder, procesar y manipular la información cambiará; también lo hará nuestra forma de crear, en todos los ámbitos, el mercado laboral y los empleos disponibles. Sin embargo, esto no tiene por qué tener en sí mismo un valor negativo. La misma tecnología que nos va a permitir romper el síndrome de la página en blanco cuando queremos escribir un texto, obtener bocetos o ideas para el diseño de un logotipo que activarán nuestra creatividad, o los primeros samples para un nuevo éxito musical, es la que va a posibilitar a agentes con malas intenciones crear noticias falsas, manipular la opinión pública o suplantar la identidad de otros.
Problemáticas reales
Y estas son las problemáticas que debemos afrontar como sociedad, ante el auge de estos nuevos sistemas de inteligencia artificial: los sesgos, la desinformación y las noticias falsas, los derechos de los usuarios y los problemas asociados a poner en manos de la IA la toma de decisiones sobre aspectos importantes para nuestra existencia o realización como seres humanos.
Es importante destacar aquí que estas no son nuevas problemáticas fruto de la expansión y popularización de la IA, sino cuestiones que llevan entre nosotros desde el inicio de los tiempos. Han ido mutando, en función del contexto social y de las herramientas disponibles para los malvados, pero el fondo de la cuestión es exactamente el mismo. Desde los sofistas (probablemente antes), la manipulación y persuasión del otro ha sido un obstáculo para los que perseguían alguna forma de verdad más o menos objetiva; desde los primeros estadios tribales, la marginación por sexo, condición o diferencias de lo común ha sido un desafío para cualquiera que entienda la igualdad como un bien; y si hablamos de derechos de los usuarios o los ciudadanos, resulta evidente que la lucha por conquistarlos nos ha acompañado desde los inicios de nuestra sociedad.
Sin embargo, sería absurdo negar que algunas de estas problemáticas se han visto claramente potenciadas por las nuevas herramientas digitales, un caso claro es la expansión de las noticias falsas y la desinformación. Con el aumento de la disponibilidad de las herramientas comunicativas y la popularización del acceso a estas, es lógico pensar que habrá más casos de información sesgada o poco contrastada, de forma intencionada o no. Pasó con la popularización de la Red, también con las redes sociales y ahora con la IA generativa. Si podemos inventar noticias creíbles con poco esfuerzo y a bajo coste con ChatGPT, es normal que haya más, y lo mismo sucede con la información sesgada, poco fiable o superficial. Siempre habrá quien prefiera la rapidez y sencillez de crear un texto con ChatGPT, sin verificar sus fuentes o la información que nos proporciona, que el esfuerzo y trabajo que cuesta escribirlo: conceptualizar, reflexionar, documentarse, escribir, revisar, etc. Otros, en cambio, disfrutamos del proceso y usaremos la IA generativa como asistente personal, como apoyo para traducir una palabra, obtener un sinónimo, encontrar palabras clave o ideas relacionadas, o hasta para desbloquear el proceso de ponerle título a un texto, que a algunos nos cuesta sobremanera.
Además, habrá quien sepa analizar el contexto y entender que para un determinado tipo de textos (de burocracia, genéricos, repetitivos, etc.) es muy útil tener a mano un chatbot; para otros casos (creatividad, análisis, crítica, ética, reflexión, etc.), corremos el riesgo de hacer el ridículo de manera espantosa. Otro componente importante que tener en cuenta es que no es lo mismo usar una herramienta de IA para trabajar una temática que uno domina que hacerlo sobre temas que nos son desconocidos. En el primer caso, seremos capaces de entender cuándo el chatbot acierta, cuándo nos proporciona una idea útil y cuándo fallan sus predicciones; en el segundo, probablemente seremos víctimas de su aparente buena retórica, a veces carente de sentido.
El caso de los sesgos, de nuevo, es algo muy humano. Nos han acompañado siempre y probablemente nunca dejarán de estar ahí. La IA bebe de nuestros datos, de la información que le proporcionamos para aprender, por lo que repetirá estos sesgos en sus respuestas, si no somos capaces de cambiar el color de la información original. Otra opción es encargarse de pulir sus respuestas para evitarlos, lo que me consta que se intenta desde algunos sectores de la industria, pero no es una tarea fácil. Aquí podemos poner el enfoque en la tecnología y culpar a la IA de perpetuar los sesgos, o podemos intentar cambiar la educación de los jóvenes y el contexto informacional, desarrollar el pensamiento crítico e intentar que la educación en valores sea algo más que un simple complemento de la formación de los ciudadanos. Si no hubiera sesgos en la información que la IA «consume» para aprender, sería mucho más improbable que los reprodujera en la generación de sus respuestas o comportamientos. Por lo tanto, si bien es importante trabajar para modular esta tecnología y que evite así reproducir nuestros errores, es mucho más crucial intentar evitarlos nosotros y buscar soluciones para que estos sesgos desaparezcan (en la medida de lo posible).
En el caso de las decisiones sobre aspectos clave para el devenir de la especie, o la interacción con sistemas mecánicos o digitales de vital importancia, tanto el análisis como la solución son breves, cortos y fáciles de entender: deberíamos prohibir rotundamente que este tipo de actos sean llevados a cabo de forma autónoma por sistemas de inteligencia artificial. Otra cosa es la acción supervisada y controlada por seres humanos; si somos capaces de generar sistemas en los que el control último esté en manos de un experto u operario, podemos ser un poco más laxos aquí. No debemos olvidar nunca que cualquier sistema digital es susceptible de ser hackeado, también la IA.
Conclusiones
Y es que las herramientas que han permitido perpetuar las injusticias, aumentar la desinformación y la polarización o perpetuar los sesgos son exactamente las mismas, conceptual y técnicamente hablando, que las que han permitido una popularización del acceso a la información, la posibilidad de universalizar el conocimiento, de favorecer el acceso a la formación o de potenciar la creatividad. Otra cosa es el diseño y la implementación que se haga de estas tecnologías, aquí, las intenciones del creador, diseñador o programador tendrán mucho que decir en los resultados que la herramienta nos ofrezca. También es importante, crucial podríamos decir, hacer entender a los profesionales de lo digital que la ética profesional también les afecta, que no es suficiente con decir aquello de «yo obedezco órdenes», «yo solo creo la herramienta» o «¿qué puedo hacer yo para evitar un mal uso de ella?». Hay muchos posibles diseños e implementaciones de las tecnologías que permiten que la IA exista, hay que intentar potenciar aquellos que tengan en cuenta nuestros valores y nos ayuden a mejorar nuestro contexto vital.
Del debate ético, la regulación política y el desarrollo del pensamiento crítico (que tanta falta nos hace) dependerá cuán capaces seremos de aprovechar las potencialidades positivas de la IA, sin la necesidad de llamar a John Connor para que nos ayude a defendernos. Y es que el sistema económico actual, con el apoyo de nuestra clase política, será más responsable del posible impacto negativo de la IA que la propia tecnología en sí.
Documentación
ADELL, Ferran (2014). «Remediación, multimedia e hibridación de los medios». Universitat Oberta de Catalunya, blog de la asignatura Fundamentos y evolución de la multimedia del Grado de Multimedia [en línea]. Disponible en: http://multimedia.uoc.edu/blogs/fem/es/remediacio-multimedia-i-hibridacio-dels-mitjans/
BERNERS-LEE, Tim (1998). «Semantic Web roadmap». World Wide Web Consortium [en línea]. [Fecha de consulta: 30/05/2023]. Disponible en: https://www.w3.org/DesignIssues/Semantic.html
CENTER FOR AI SAFETY (2023). «Statement on AI Risk». Center for AI Safety [en línea]. Disponible en: https://www.safe.ai/statement-on-ai-risk
MANOVICH, Lev (2013). Software Takes Command. Nueva York: Bloomsbury Academic. DOI: https://doi.org/10.5040/9781472544988
Notas
1. La Inteligencia artificial general (AGI) es aquella que es capaz de entender, aprender y aplicar el conocimiento en el mismo grado que los seres humanos. Una IA que puede realizar las mismas tareas intelectuales que un humano.
Cita recomendada: ADELL, Ferran. Desmitificando la Inteligencia Artificial: entre alarmas y realidades. Mosaic [en línea], junio 2023, n.º 199. ISSN: 1696-3296. DOI: https://doi.org/10.7238/m.n199.2310
Deja un comentario