Universitat Oberta de Catalunya

Inteligencia artificial: en el ojo del huracán

Últimamente, levantarse y oír hablar de inteligencia artificial es un todo. Parece que no exista otra cosa de la que ocuparse en todos los foros posibles. La verdad es que los espectaculares avances que ha realizado esta disciplina recientemente han impactado en la sociedad, en la economía y en todos los ámbitos imaginables de una manera muy significativa, pero… ¿por qué de repente todo el mundo habla de ello?

En realidad, la inteligencia artificial no es una disciplina nueva, ni mucho menos. Surge en el año 1956, en lo que se conoce como escuela de verano de Darmouth, con la intención de crear máquinas que imitaran la inteligencia humana. Desde sus inicios, la IA se ha desarrollado en dos vertientes muy diferentes. La IA simbólica es el planteamiento encabezado por el profesor John McCarthy (que precisamente fundó la escuela de Darmouth), y la subsimbólica o conexionista es el enfoque representado por el profesor Marvin Minsky, que venía del ámbito de la cibernética.

La IA simbólica, con un fuerte fundamento en el ámbito de la lógica formal, trabaja los símbolos para representar el conocimiento, lo que sabemos las personas, que no siempre es fácil representar mediante datos y que muchas veces corresponde a piezas de conocimiento de naturaleza relacional fáciles de representar mediante reglas más o menos sofisticadas, pero difíciles de medir (si la piel está muy amarilla, hay ictericia; si los acabados del coche son de lujo –terciopelo, madera, etc.–, gustan más); la ingeniería del conocimiento se desarrolló para poder representar formalmente realidades complejas (salud, medio ambiente, etc.), y el razonamiento automático trataba de incluir las diferentes piezas de conocimiento en argumentaciones y conclusiones a partir de evidencias recogidas desde el mundo real. Quizás el exponente más famoso de esta rama son los sistemas expertos, que a partir de la descripción de ciertas escenas (la sintomatología de un paciente, por ejemplo) podían razonar y extraer conclusiones (diagnosticar una enfermedad). Con los años se descubrió que la naturaleza altamente combinatoria de estas técnicas, junto con la enorme cantidad de conocimiento implícito que los expertos manejan sin darse cuenta, limitaba una transferencia completa de conocimiento del experto a la máquina y que uno y otra razonasen de manera indistinguible.

La IA subsimbólica pone más bien el foco en que las máquinas puedan resolver aquellos problemas difíciles que requieren una inteligencia tan bien (mejor, si es posible) y más rápido que los humanos, desempeñando un papel más próximo a aumentar el pensamiento humano que a imitarlo. Se trata de una rama que se ha sustentado más en el cálculo computacional intensivo que en la representación simbólica y razonada del mundo, y que ha desarrollado metáforas computacionales de sistemas biológicos, conocidos como modelos bioinspirados. Hemos visto muchísimos: la computación evolutiva con los algoritmos genéticos, que imitaban cómo los cromosomas se cruzan en la teoría de la evolución y cómo sobreviven los más fuertes para resolver problemas; la inteligencia de enjambre (swarm intelligence), que busca imitar sistemas de inteligencia colectiva, como las hormigas o los pájaros, que entre todos combinan tareas simples (llevar una ramita a la boca, un trocito) para llevar a cabo una muy compleja (hacer un hormiguero). Quizás el modelo más famoso es el de las redes neuronales artificiales (ANN), que representan una metáfora de las redes de neuronas cerebrales y los mecanismos con los que se pasan información entre ellas.

Hasta que las máquinas no han tenido suficiente potencia de cálculo, ninguna de las dos ramas ha logrado resolver problemas reales complejos de verdad, porque los algoritmos de la IA no se computaban en tempos cortos, y muchas veces ni siquiera finitos.

Con la revolución digital, el desarrollo de los smart sensors (pequeñísimos, baratísimos, y que permiten medirlo todo), el IoT (el internet de las cosas) y la conectividad han permitido recabar datos de todas partes y de manera indiscriminada, lo que ha dado lugar al famoso big data, que al ser bases de datos tan voluminosas necesitan arquitecturas especiales para guardarlos (tecnologías de nube) y procesarlos (computación de altas prestaciones), así como algoritmos capaces de extraer la complejidad que entrañan. La aparición del big data fue el fin de la teoría de la información como la conocíamos, gestionando bases de datos tradicionales, y de la estadística clásica, que no pudo asumir ni el volumen de estos datos ni los modelos de comportamiento complejos que estos mostraban, alejados del comportamiento lineal, normal, ni tampoco la independencia entre los diferentes factores de influencia. Aparecieron la ingeniería de datos (para tratar nuevas arquitecturas y estructuras de datos que se adaptaran a los nuevos retos del big data) y la ciencia de los datos, tan controvertida que todavía hoy hay quien sostiene que no existe, pero lo cierto es que recoge bajo un mismo paraguas los métodos multivariantes más avanzados (de la estadística) y los métodos más potentes de aprendizaje automático (que procede de la IA), junto con los de visualización de datos, etc., para dar cobertura a la resolución de problemas con datos tan voluminosos y de estructura tan compleja como los que hoy nos planteamos analizar. Y mientras que los primeros algoritmos de ciencia de los datos (denominados al principio minería de datos) se situaban en el sector retailing y descubríamos que simplemente analizando los datos de las tarjetas cliente la capacidad de mejorar sustancialmente en el negocio era enorme, la tecnología avanzaba todavía más y surgían imágenes, textos, voces o señales para analizar en grandes cantidades, y la ciencia de datos empezaba a necesitar tratar datos más diversos y de mayor volumen.

Son unas ANN que evolucionan hacia un tipo especial, conocidas como redes profundas, que permiten abrir la puerta de una nueva era de la IA, la del deep-learning, que puede tratar millones de imágenes enormes en muy poco tiempo y que ha hecho avanzar, por ejemplo, el diagnóstico basado en imagen médica hasta límites insospechados (por ejemplo, que la IA analice una radiografía de pulmón y vea un tumor donde ningún ojo humano ha podido detectar nada todavía). Y con esta potencia inesperada proliferan las empresas que dicen que hacen IA para todo tipo de cosas. Sin duda, estos modelos son capaces de capturar estructuras de datos muy complejas, incluso formas funcionales que no sabemos qué son ni a qué fórmula responden. Sin embargo, las bien entrenadas, las ANN, y sobre todo las redes profundas pueden predecir correctamente o clasificar de manera acertada aquello que casi todos los otros algoritmos fallarían. Además, los retos son enormes, ya que representan una herramienta poderosa para generar modelos predictivos, con dos limitaciones muy relevantes: necesitan muchos datos para aprender y no pueden explicar las predicciones que hacen. Por lo tanto, si entrenamos una ANN para abrir y cerrar una válvula en una potabilizadora de agua, solo necesitaremos muchos datos de sensor y podremos acertar cuándo abrimos y cerramos automáticamente esta válvula, pero no tendremos ni idea de por qué aquello está funcionando. Así pues, si hablamos de válvulas la cosa puede ser aceptable, pero si hablamos, por ejemplo, de predecir la dosis de medicamento para un cierto paciente, es evidente que ya no, pues el médico no puede presentarse ante aquél diciendo que se debe tomar esto y aquello porque una máquina ha dicho que le conviene hacerlo. Una de las áreas de investigación más recientes en IA es precisamente la IA explicable, que se dedica a encontrar formas de acompañar estos modelos opacos de datos mediante mecanismos que permitan explicar, argumentar o justificar los resultados algorítmicos obtenidos.

La última novedad es la IA generativa, una nueva evolución de las redes neuronales que combina dos ANN que compiten entre sí en lo que se conoce como redes neuronales adversarias. Ante una pregunta del usuario, una de las redes comienza a generar soluciones desenfrenadamente, de manera indiscriminada. ¡Y genera millones de éstas! A una velocidad además insospechada. Por su parte, la otra red evalúa las propuestas que recibe y rechaza todas las que no le parecen razonables, hasta que se encuentra una solución al problema planteado que tenga sentido, que se ajuste bien a los objetivos del problema, que minimice algúna distancia, etc. Una vieja técnica que ha estado muy en desuso durante muchos años, el aprendizaje por refuerzo, ha cogido nuevo impulso y se combina con las redes neuronales adversarias para acabar de afinar la calidad de los resultados, con lo que da más peso a aquellas soluciones que el usuario ha valorado positivamente y menos a las otras. Con esto se puede conseguir, por primera vez, que una IA cree contenido original que no sea copia de ningún otro. Desde que existe la IA generativa y algunas herramientas han irrumpido en el mercado, sin ningún otro propósito que dejarnos jugar y experimentar con la posibilidad de hacer todo tipo de consultas y obtener un resultado razonablemente bueno.

Lo cierto es que poder llevar en el móvil de bolsillo una IA que lo mismo te resuelve una ecuación diferencial que te escribe un poema, o que elabora un ensayo sobre las conquistas de los bárbaros, no deja de ser una disrupción suficientemente importante como para que todo el mundo esté fascinado con ella. Y es tan extraordinaria que se ha convertido en el punto de mira de todo el mundo, permanentemente. Al poder generar tal cantidad de contenidos nuevos, ya sean imágenes o textos, una gran parte de la ciudadanía y del ecosistema se ha decidido por incorporarla de manera irreversible a sus vidas.

Disponer de una IA que genera contenidos nuevos nos lleva a un debate intenso sobre los nuevos modelos de derechos de autor que deberán regular el fenómeno, en el que quizás el desarrollador del código podrá participar, así como los propietarios o protagonistas de las obras que la IA consulta para llevar a cabo sus creaciones. El blockchaines una buena opción para garantizar que los derechos de propiedad están bien protegidos para todos los afectados.

Lo que nos debe preocupar es que una IA generativa, que trabaja por principios de coincidencia de palabras en ciertos contextos, sea tomada en algunos ámbitos como si razonara de verdad, olvidando que se trata de una máquina, que PUEDE FALLAR, y asumimos sus respuestas (tan inexplicables como las de su antecesora, el deep-learning) al pie de la letra, sin tan siquiera dudar de su veracidad. En realidad, muchas veces acierta, pero el otro día, por ejemplo, una niña de instituto volcaba en una de estas IAs generativas un fragmento de un trabajo que acababa de preparar (naturalmente, consultando Google y otras fuentes) y al preguntarle de quién era aquel texto, la IA respondió: «Mío».

El mayor peligro que experimentamos ahora mismo es que damos valor de autenticidad a resultados que provienen de modelos vinculados a la incertidumbre y que pueden variar en mayor o menor medida. Mientras que estas herramientas no nos aporten información precisa sobre qué documentos o materiales han empleado como base para presentar su solución; mientras no podamos justificar o referenciar los resultados que presenta; mientras no se puedan conocer las fuentes, será arriesgado insertar el uso de estas herramientas de una manera no supervisada en procesos de toma de decisiones reales, y mucho más cuando hablemos de decisiones comprometidas o estratégicas que vayan más allá de redactar la felicitación navideña de la compañía para enviarla a la clientela.

Esta precaución es recomendable, no solo para las técnicas de IA más recientes, sino para la mayoría de las herramientas disponibles en este área, que si bien proporcionan beneficios extraordinarios para hacer un mundo mejor y más justo, como hemos podido ir viendo, delel modo como se utilicen y adopten depende que, en lugar de un mundo mejor, creemos otro con mayor discriminación y más desigualdad social. Por eso es fundamental establecer el marco ético sobre los usos de los sistemas basados en IA y una regulación del mercado de la IA que garantice que solo llegan a nuestras manos herramientas IA probadas y seguras. En la carrera mundial por la IA, Europa (así como Cataluña) se ha querido significar y ser la primera potencia que trabaja intensamente por una IA ética, sostenible y regulada.


Cita recomendada: GIBERT, Karina. Inteligencia artificial: en el ojo del huracán. Mosaic [en línea], julio 2023, no. 199. ISSN: 1696-3296. DOI: https://doi.org/10.7238/m.n199.2311

Acerca del autor

Catedrática en la Universidad Politécnica de Cataluña-Barcelona Tech (UPC). Licenciada y doctora en Informática, con especializaciones en estadística computacional e inteligencia artificial. Directora y cofundadora del centro de investigación en Intelligent Data Science and Artificial Intelligence de la UPC (IDEAI-UPC, desde 2018). Decana del Ilustre Colegio Oficial de Ingeniería Informática de Cataluña (COEINF, desde 2023). Experta y coautora de CATALONIA.AI, l’Estratègia d’Intel·ligència Artificial de Catalunya (Generalitat de Cataluña, 2018). Asesora de los Gobiernos catalán, español y de la Comisión Europea en cuestiones de ética de la IA y en transformación digital. Premio WomenTech 2023 (Women360º), Premio Nacional de Ingeniería Informática (Consejo General de Colegios de Ingeniería informática de España, 2023), Premio Ada Byron 2022 (Colegio de Ingeniería Informática de Galicia) y Premio DonaTIC 2018 (Generalitat de Catalunya). Mención Creu Casas 2020-2021 (IEC).
Facebook: karina.gibert,5 | Twitter: @karinagibertk

Deja un comentario