Universitat Oberta de Catalunya

Intel·ligència artificial: a l’ull de l’huracà

Darrerament, llevar-se i sentir parlar d’intel·ligència artificial és tot un. Sembla que no hi hagi altra cosa de què ocupar-se en tots els fòrums possibles. La veritat és que els avenços espectaculars que ha fet aquesta disciplina recentment han impactat en la societat, l’economia i tots els àmbits imaginables de manera molt significativa, però… com és que de cop i volta ara tothom en parla?

En realitat, la intel·ligència artificial no és una disciplina nova, ni de bon tros. Sorgeix l’any 1956 en el que es coneix com l’escola d’estiu de Darmouth, amb la intenció de fer màquines que imitessin la intel·ligència humana. Des dels inicis, la IA s’ha desenvolupat en dues vessants molt diferents. La IA simbòlica és el plantejament encapçalat pel professor John McCarthy (que justament va convocar l’escola de Darmouth), i la IA subsimbòlica o connexionista és l’enfocament representat pel professor Marvin Minsky, que venia de l’àmbit de la cibernètica.

La IA simbòlica, amb una forta sustentació en l’àmbit de la lògica formal, treballa els símbols per representar el coneixement, el que sabem les persones, que no sempre és fàcil de representar amb dades, i que moltes vegades correspon a peces de naturalesa relacional fàcils de representar en regles més o menys sofisticades, però difícils de mesurar (si la pell és molt groga, hi ha icterícia; si els acabats del cotxe són de luxe –vellut, fusta, etc.–, agraden més). L’enginyeria del coneixement es va desenvolupar per poder representar formalment realitats complexes (salut, medi ambient, etc.) i el raonament automàtic mirava d’encadenar les diferents peces de coneixement en argumentacions i conclusions a partir d’evidències recollides del món real. Potser l’exponent més famós d’aquesta branca són els sistemes experts, que a partir de la descripció de certes escenes (la simptomatologia d’un pacient, per exemple) podien raonar i extreure conclusions (diagnosticar una malaltia). Amb els anys, es va descobrir que la naturalesa altament combinatòria d’aquestes tècniques, juntament amb l’enorme quantitat de coneixement implícit que els experts maneguen sense adonar-se’n, posaven límits a tenir una transferència completa de coneixement de l’expert a la màquina i que l’un i l’altre raonessin de manera indistingible.

La IA subsimbòlica posa més aviat el focus en el fet que les màquines puguin resoldre els problemes difícils que requereixen intel·ligència tan bé (millor si es pot) i més de pressa que els humans, jugant un paper més d’augmentar el pensament humà i no tant d’imitar-lo. Es tracta d’una branca que s’ha sustentat més en el càlcul computacional intensiu i no tant en la representació simbòlica i raonada del món, i que ha desenvolupat metàfores computacionals de sistemes biològics, que es coneixen com a models bioinspirats. N’hem vist moltíssims: la computació evolutiva amb els algorismes genètics, que imitaven com els cromosomes s’encreuen en la teoria de l’evolució i com sobreviuen els més forts per resoldre problemes; la intel·ligència d’eixam (swarm intelligence), que busca imitar sistemes d’intel·ligència col·lectiva, com les formigues o els ocells, que entre tots es combinen tasques simples (portar una branqueta a la boca, un trosset) per dur-ne a terme una de molt complexa (fer un formiguer). Potser el model més famós és el de les xarxes neuronals artificials (ANN), que representen una metàfora de les xarxes de neurones cerebrals i els mecanismes amb què es passen informació entre elles.

Mentre les màquines no han tingut prou potència de càlcul, cap de les dues branques escalava fins a problemes reals complexos de debò, perquè els algorismes de la IA no es computaven en tempos curts, i moltes vegades ni tan sols finits.

Amb la revolució digital, el desenvolupament dels smart sensors (petitíssims, baratíssims, i que permeten mesurar-ho tot), l’IdC (l’internet de les coses) i la connectivitat han permès recollir dades de tot arreu i de manera indiscriminada, tot donant lloc al famós big data, que, en ser bases de dades tan grans, necessiten arquitectures especials per guardar-les (tecnologies de núvol) i processar-les (computació d’altes prestacions) i algorismes capaços d’extreure la complexitat que involucren. L’aparició del big data va ser la fi de la teoria de la informació tal com la coneixíem, gestionant bases de dades tradicionals, i de l’estadística clàssica, que no va poder afrontar ni el volum d’aquestes dades ni els models de comportament complexos que mostraven, lluny del comportament lineal, normal, ni de la independència entre els diferents factors d’influència. Van aparèixer l’enginyeria de dades (per tractar noves arquitectures i estructures de dades que s’adaptessin als nous reptes del big data) i la ciència de les dades, tan controvertida que encara avui hi ha qui diu que no existeix, però el cert és que recull sota un mateix paraigua l’estadística multivariant més avençada (de l’estadística) i els mètodes més potents d’aprenentatge automàtic (que ve de la IA), juntament amb els de visualització de dades, etc., etc. per donar cobertura a la resolució de problemes amb dades tan grans i d’estructura tan complexa com les que avui ens plantegem analitzar. I mentre els primers algorismes de ciència de les dades (anomenats primer mineria de dades) se situaven en el sector retailing i descobríem que només analitzant les dades de les targes client la capacitat de millorar substancialment el negoci era enorme, la tecnologia avençava encara més i ens apareixien imatges, textos, veus i senyals per analitzar en grans quantitats, i la ciència de dades començava a necessitar tractar dades més variades i en més grans quantitats.

Són les ANN les que evolucionen a un tipus especial, conegudes com xarxes profundes, i que permeten obrir la porta d’una nova era de la IA, la del deep-learning, que pot tractar milions d’imatges enormes en poquíssim temps i que ha fet avençar, per exemple, el diagnòstic basat en imatge mèdica fins a límits insospitats (com ara que la IA analitzi una radiografia de pulmó i hi vegi un tumor on cap ull humà encara no ha pogut detectar res). Amb aquesta potència inesperada proliferen les empreses que diuenque fan IA per a tot tipus de coses. Certament, aquests models són capaços de capturar estructures de les dades d’allò més complexes, fins i tot formes funcionals que no sabem ni quines són ni a quina fórmula responen. Tanmateix, ben entrenades, les ANN, i sobretot les xarxes profundes, poden predir o classificar correctament allò que gairebé tots els altres algorismes fallarien. Els reptes són enormes, perquè representen una eina poderosa per fer models predictius amb dues limitacions molt rellevants: necessiten moltes dades per aprendre i no poden explicar les prediccions que fan. Així que si entrenem una ANN per obrir i tancar una vàlvula en una potabilitzadora d’aigua, només necessitem moltes dades de sensor i podrem encertar quan obrim i tanquem automàticament aquesta vàlvula, però no tindrem ni idea de per què està funcionant. Ja es veu clar que si parlem de vàlvules la cosa pot ser acceptable, però si parlem, per exemple, de predir la dosi de medicament d’un cert pacient, és segur que el clínic no es pot presentar davant del pacient dient que s’ha de prendre això i allò perquè una màquina ha dit que li convé. Una de les àrees de recerca més recent en IA és justament la IA explicable, que es dedica a trobar maneres d’acompanyar aquests models opacs de dades amb mecanismes que permetin explicar, argumentar o justificar els resultats algorísmics obtinguts.

L’última novetat és la IA generativa, una nova evolució de les xarxes neuronals que combina dues ANN que competeixen entre elles en el que es coneix com xarxes neuronals adversàries. Davant d’una pregunta de l’usuari, una de les xarxes es posa a generar solucions desenfrenadament de manera indiscriminada. En genera milions a una velocitat insospitada! L’altra avalua les propostes que rep i rebutja totes les que no li semblen raonables, fins que es troba una solució al problema plantejat que tingui sentit, que s’ajusti bé als objectius del problema, que minimitzi alguna distància, etc. Una vella tècnica que havia estat en desús durant molts anys, l’aprenentatge per reforç, agafa nova empenta i es combina amb les xarxes neuronals adversàries per acabar d’afinar la qualitat dels resultats donant més pes a les solucions que l’usuari ha valorat positivament i menys a les restants. Amb això es pot aconseguir per primer cop que una IA creï contingut original, que no sigui còpia de ningú altre. I des que tenim IA generativa, algunes eines han irromput en el mercat sense més propòsit que deixar-nos-hi jugar i experimentar la possibilitat de fer tota mena de consultes i obtenir un resultat raonablement bo.

El cert és que poder portar al mòbil de butxaca una IA que tant et resol una equació diferencial, t’escriu un poema o et munta un assaig sobre les conquestes dels bàrbars no deixa de ser una disrupció prou important perquè tothom estigui fascinat. De tant sorprenent com és, s’ha convertit en el punt de mira de tothom, permanentment. Atès que pot generar continguts nous, tant si són imatges com textos, una gran part de la ciutadania i de l’ecosistema s’ha decidit a incorporar-la de manera irreversible a la seva vida.

Disposar d’una IA que genera continguts «nous» ens porta a un debat intens sobre els nous models de drets d’autor que hauran de regular el fenomen, on potser el desenvolupador del codi podrà participar, així com els propietaris o protagonistes de les obres que la IA consulta per fer les seves creacions. El blockchainés una bona opció per garantir que els drets de propietat estan ben protegits per a tots els afectats.

El que ens ha de preocupar és que una IA generativa, que treballa per principis de coincidència de paraules en certs contextos, s’estigui prenent en alguns àmbits com si raonés de debò i s’oblidi que es tracta d’una màquina, que POT FALLAR, i que ens agafem les seves respostes (tan inexplicades com les del seu antecessor, el deep-learning) al peu de la lletra, sense ni tan sols dubtar de la seva veracitat. El cert és que molts cops l’encerta, però l’altre dia una nena d’institut li bolcava un fragment d’un treball que acabava de preparar (naturalment havia consultat Google i altres fonts) i li preguntava de qui era el text, i la IA va respondre: «Meu».

El perill més gran que tenim ara mateix és que donem veracitat d’ofici a resultats que provenen de models lligats a la incertesa i que poden variar més o menys lleugerament. Mentre aquestes eines no ens aportin informació precisa sobre quins documents o materials de base han contribuït a construir la solució, mentre no puguem justificar o referenciar els resultats que presenta i mentre no es puguin posar les fonts, serà arriscat inserir l’ús d’aquestes eines de manera no supervisada en processos de presa de decisions reals, i molt més quan parlem de decisions compromeses o estratègiques que vagin més enllà de redactar la nadala institucional de la companyia per enviar a la clientela.

Aquesta precaució és recomanable no només per a les tècniques d’IA més recents, sinó per a la majoria d’eines disponibles en aquesta àrea, que si bé proporciona eines amb beneficis extraordinaris per fer un món millor i més just, com hem pogut anar dient, de la manera com s’utilitzin i s’adoptin depèn que, en comptes d’un món millor en fem un altre amb més discriminació i més desigualtat social. Per això és fonamental establir el marc ètic sobre els usos dels sistemes basats en IA i una regulació del mercat de la IA que garanteixi que només arriben a les nostres mans eines IA provades i segures. En la cursa mundial per la IA, Europa (i Catalunya no es queda enrere) s’ha volgut significar essent la primera potència que treballa intensament per una IA ètica, sostenible i regulada.


Cita recomanada: GIBERT, Karina. Intel·ligència artificial: a l’ull de l’huracà. Mosaic [en línia], juliol 2023, núm. 199. ISSN: 1696-3296. DOI: https://doi.org/10.7238/m.n199.2311

Acerca del autor

Catedrática en la Universidad Politécnica de Cataluña-Barcelona Tech (UPC). Licenciada y doctora en Informática, con especializaciones en estadística computacional e inteligencia artificial. Directora y cofundadora del centro de investigación en Intelligent Data Science and Artificial Intelligence de la UPC (IDEAI-UPC, desde 2018). Decana del Ilustre Colegio Oficial de Ingeniería Informática de Cataluña (COEINF, desde 2023). Experta y coautora de CATALONIA.AI, l’Estratègia d’Intel·ligència Artificial de Catalunya (Generalitat de Cataluña, 2018). Asesora de los Gobiernos catalán, español y de la Comisión Europea en cuestiones de ética de la IA y en transformación digital. Premio WomenTech 2023 (Women360º), Premio Nacional de Ingeniería Informática (Consejo General de Colegios de Ingeniería informática de España, 2023), Premio Ada Byron 2022 (Colegio de Ingeniería Informática de Galicia) y Premio DonaTIC 2018 (Generalitat de Catalunya). Mención Creu Casas 2020-2021 (IEC).
Facebook: karina.gibert,5 | Twitter: @karinagibertk

Deja un comentario