«[Chapter 1]
The neon lights of the city flickered above the silent figure of Jessica Black, a journalist who had long ago given up on the hope of truth in a world of lies. In this dark future, corporations ruled the world, and the truth was a commodity that could be bought and sold.
As she walked through the deserted streets, Jessica couldn’t shake the feeling that she was being watched. She quickened her pace, her heart beating faster with every step.
Suddenly, a group of men emerged from the shadows, surrounding her. “We know who you are, Ms. Black,” one of them said. “And we know what you’re up to. You need to stop before it’s too late.”
But Jessica wouldn’t be intimidated. She knew that the only way to expose the truth was to keep digging. She fought back with all her might, but the men overpowered her, leaving her unconscious on the street.»
Amb independència de la preocupació que es pugui sentir per Jessica Black (que probablement ja s’hagi recuperat de l’atac sofert i prepara la venjança des de la seu clandestina del col·lectiu revolucionari), que una aplicació d’IA generativa sigui capaç de crear un text així és una cosa que ens sorprèn a tots. I ens sorprèn perquè estàvem acostumats a interactuar amb la tecnologia d’una manera més mecànica: jo premo botons i tu fas coses, jo escric una paraula i tu cerques informació relacionada, jo dibuixo amb el ratolí i tu em mostres una línia a la pantalla. Emprar el llenguatge natural –el nostre llenguatge– per relacionar-nos amb la tecnologia és quelcom a què no estem habituats.
Antecedents conceptuals
És important destacar que, encara que el que anomenem IA generativa pot semblar un concepte rupturista respecte als antecedents interactius i informacionals, aquesta forma part d’un objectiu al qual fa molt de temps que es va donar forma: la idea que les màquines –en qualsevol forma d’aquestes– siguin capaces d’entendre el nostre llenguatge, amb la finalitat de poder automatitzar tasques que abans requerien la nostra intervenció. Això, sumat a les seves capacitats de càlcul i de processament de les dades, donaria lloc a un context d’interacció amb els ordinadors molt més productiu. A més, obriria la possibilitat de descarregar al talent i la creativitat humana d’aquelles responsabilitats de menor importància i menys significatives en la creació del coneixement.
Aquest objectiu va ser plasmat de manera concreta i brillant per Tim Berners-Lee, amb la conceptualització inicial del que s’anomenaria posteriorment web semàntica. En realitat, el creador de la World Wide Web ja va imaginar –des del principi– una xarxa que inclogués informació semàntica amb dades llegibles per les màquines.
«The Web was designed as an information space, with the goal that it should be useful not only for human-human communication, but also that machines would be able to participate and help. One of the major obstacles to this has been the fact that most information on the Web is designed for human consumption, and even if it was derived from a database with well-defined meanings (in at least some terms) for its columns, that the structure of the data is not evident to a robot browsing the web.» (Berners-Lee, 1998).
A posteriori (1998), amb la WWW consolidada, Berners-Lee va recuperar el concepte, ja que el considerava crucial per ampliar la interoperabilitat dels sistemes informàtics i de vital importància per a l’evolució de la Xarxa. Ho definia de la següent manera:
«The Semantic Web approach instead develops languages for expressing information in a machine processable form. […] a Web in which machine reasoning will be ubiquitous and devastatingly powerful.»
Sense ànim d’entrar a donar una lliçó d’història, és important entendre que la IA generativa només és una resposta a un interès general entre molts pensadors de les tecnologies digitals: que les aplicacions informàtiques puguin entendre’ns en el nostre llenguatge i ajudar-nos a fer tasques, a crear coneixement, a automatitzar processos, etc.
Aquesta IA generativa, que està tan de moda, és fruit d’una evolució multicausal que s’ha desenvolupat al llarg de les últimes dècades. És multicausal en el sentit que han calgut diferents tecnologies, físiques i de programari, perquè fos possible. Així, el famós ChatGPT no seria possible sense els models de llenguatge basats en transformers, que en són el nucli, o sense l’aprenentatge supervisat i l’enginyeria de característiques, però tampoc existiria sense el desenvolupament del maquinari necessari per entrenar aquest tipus de models, com ara les unitats de processament gràfic o GPU.
IA generativa
La IA generativa és el tipus d’IA que crea coses i s’allunya del clàssic reconeixement de patrons (tot i que la relació és clara). Hi ha qui dirà que crea contingut nou i original, però això requeriria un article sencer per debatre què és nou i què és original. Evitant els debats terminològics, ens quedarem amb el terme cosa, per no limitar-nos al text, les imatges i la música, tot deixant les portes obertes a altres camps de la «creativitat» (com la facultat de crear, i no com a cerca de l’originalitat). En general, són aplicacions o models que funcionen sobre la base del que s’anomenen xarxes generatives antagòniques (GAN, en anglès), que han estat entrenades amb dades reals mitjançant un procés de discriminació positiva/negativa que ajuda el sistema a generar mostres cada vegada més realistes.
Aquests sistemes, com ChatGPT (i també Bard, Midjourney, Firefly o Soundful), s’han posat de moda els últims mesos, encara que alguns fa anys que existeixen, gràcies al boom dels bots conversacionals: chatbots basats en IA. Els chatbots, que van sorgir en els anys seixanta de la mà de Joseph Weizerbaum (MIT) amb ELIZA, estan pensats per mantenir una conversa amb els éssers humans amb la màxima naturalitat possible. En els anys seixanta eren sistemes molt bàsics que funcionaven mitjançant la detecció de paraules clau en l’entrada de text de l’usuari (prompt), a la qual es responia amb una frase model de la base de dades del sistema. Avui dia, amb models com GPT4, la resposta és molt més oberta i complexa, i es genera en funció d’un model d’aprenentatge automàtic que s’ha entrenat amb un gran corpus de text (llibres, articles, etc.) per aprendre patrons i estructures del llenguatge humà. En resum, el procés seria el següent: recepció del prompt, processament d’aquest, generació de la resposta i conversió de nou al llenguatge humà.
El sistema prediu quines paraules tenen més sentit en funció de l’estructura del prompt original i en comparació amb els patrons i les estructures que coneix, gràcies al seu entrenament. I aquesta predicció pot ser molt precisa, normalment en casos en els quals hi ha pocs matisos i d’àmbit general, o molt esbiaixada o incorrecta, quan el context no és evident o el sistema és incapaç d’interpretar les particularitats del cas. Per a tasques bàsiques com ara esborranys, traducció, definicions simples, creació de títols en funció d’un text donat, resum de textos i tasques semblants, el sistema té un alt índex d’encert, però quan ha de fer consideracions ètiques o resoldre qüestions més complexes la cosa canvia de manera significativa. En els casos controvertits apareixen els biaixos, si som capaços de superar les limitacions imposades al model per aquesta mena de situacions:
Problemàtiques interessades
La intel·ligència artificial generativa no és un artefacte màgic, sinó tecnologia pura. Tanmateix, quan no som capaços d’entendre com funciona un fenomen (vegeu la llarga història de la humanitat i les seves místiques aproximacions a allò a priori incomprensible o demostrat incognoscible) tenim tendència a processar-ho amb la sorpresa, la desconfiança i la por que ens genera l’imprevisible desconegut. I en aquest estat mental és molt fàcil magnificar les coses, creure-s’ho tot, imaginar possibilitats sense límit o perills engrandits. En un context informacional altament manipulat, on les motivacions dels mitjans de comunicació estan lluny de ser pures i positives, i on les xarxes socials s’han convertit en altaveus de notícies falses i manipulació informativa, es crea el terreny propici perquè postulats com el publicat recentment pel Center for AI Safety tinguin un impacte significatiu entre les masses. Sorgeix la idea que els perills immediats associats a la IA inclouen la possibilitat de destruir el món tal com el coneixem i fins i tot conduir-nos a l’extinció de l’espècie.
«Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war.» (CENTER FOR AI SAFETY, 2023).
Plantejat així, sense desenvolupar la qüestió i sense proposar arguments que la sostinguin, sembla més aviat una distracció de les problemàtiques reals i immediates que no pas una resposta a una preocupació sincera. Si a més ens fixem en els signants de la declaració: Sam Altman (CEO d’OpenAI), Demis Hassabis (CEO de Google DeepMind) o Albert Efimov (Russian Association of Artificial Intelligence), entre molts altres CEO d’empreses amb grans interessos econòmics relacionats amb la IA –sense que això serveixi per desconfiar de les intencions dels acadèmics que també signen la declaració–, la desconfiança que ha de generar-nos és evident. Probablement, sota la brevetat del text publicat, que pot semblar que persegueix claredat i finor, s’amaguin altres intencions.
Recollint les paraules d’un col·lega, en una conversa improvisada, és com quan sents parlar alguns científics nuclears de la preocupació per la proliferació de l’amenaça nuclear en públic, mentre preparen millores i avenços per a les seves bombes atòmiques en privat. Per a una bona part dels signants d’aquesta declaració, la IA és només una gran font de beneficis potencials: una màquina de generar diners. I això no té per què significar que no els apassioni la tecnologia, o que no sentin una admiració absoluta pels avenços de la intel·ligència artificial, però els interessos principals són els que són.
I encara que és cert que aquesta declaració se centra en la IA en general, probablement pensant en allò que se sol anomenar intel·ligència artificial forta, completa o general (AGI)(1) –que està a anys llum de ser possible, atès l’estat actual de la investigació i del desenvolupament en neurociència i intel·ligència artificial–, l’enfocament no deixa de ser semblant a quan parlem de la intel·ligència artificial generativa que ens ocupa en aquest article.
Tanmateix, l’alarmisme no acaba amb la destrucció de l’espècie en mans d’una reencarnació modernitzada de Skynet, sinó que s’estén a afirmacions com que la IA generativa «ens tornarà a tots tanoques» (com abans les calculadores, els ordinadors o Google), «que acabarà amb la creativitat» (com la pirateria fa uns anys) o «que ens deixarà a tots sense feina» (com el programari de comptabilitat amb els comptables, o els drons i els robots amb els transportistes i els mossos de magatzem). Tot aquest conjunt d’afirmacions no té cap base sòlida des del punt de vista argumentatiu. La manera com aprenem, treballem, creem o manipulem la informació canviarà, això és segur, com ja ho ha fet al llarg de la nostra història. Però l’alarmisme radical que s’està generant des d’alguns flancs respon més aviat a la necessitat de mantenir un hype continu per a l’innoble art del clickbait, o al desconeixement del funcionament i de l’abast d’aquestes tecnologies.
Quan es va popularitzar internet, amb l’abaratiment dels costos d’accés tant als ordinadors com a les connexions a la Xarxa, i Google va començar a guanyar fama com a porta d’entrada a la informació en línia, molts van afirmar que ningú no tornaria a agafar un llibre, a llegir un diari o a consultar un diccionari, i es van equivocar. El que realment va passar és que vam començar a llegir els diaris en format digital, consultar els diccionaris en línia i llegir els llibres en nous dispositius. Al mateix temps, van aparèixer nous mitjans fruit de la remediació i la hibridació, fenomen que Manovich va descriure molt bé en el seu llibre Software Takes Command ja al 2013: la hibridació respon a una fusió entre elements que comparteixen tècniques de programari i interfícies, el que genera una experiència nova i coherent, diferent de l’experimentació dels elements per separat (Adell, 2014). Un fenomen que es repetirà amb la IA generativa i continuarà ocorrent mentre existeixi la nostra espècie.
I aquesta anàlisi-valoració pot estendre’s a la pràctica totalitat d’afirmacions alarmistes que s’han generat últimament arran de la popularització de la IA generativa: «ni ens tornarem més tanoques, ni deixarem de ser creatius, ni perdrem les nostres feines», com a mínim no per culpa de ChatGPT. No obstant això, la manera d’accedir, de processar i de manipular la informació canviarà; també ho farà la nostra manera de crear, en tots els àmbits, el mercat laboral i les ocupacions disponibles. Tanmateix, això no té per què tenir un valor negatiu. La mateixa tecnologia que ens permetrà trencar la síndrome de la pàgina en blanc quan volem escriure un text, obtenir esbossos o idees per al disseny d’un logotip que activaran la nostra creativitat, o els primers samples per a un nou èxit musical, és la que possibilitarà a agents amb males intencions crear notícies falses, manipular l’opinió pública o suplantar la identitat d’altres.
Problemàtiques reals
Aquestes són les problemàtiques que hem d’afrontar com a societat davant de l’auge dels nous sistemes d’intel·ligència artificial: els biaixos, la desinformació i les notícies falses, els drets dels usuaris i els problemes associats a posar en mans de la IA la presa de decisions sobre aspectes importants per a la nostra existència o realització com a éssers humans.
És important destacar aquí que aquestes no són noves problemàtiques fruit de l’expansió i la popularització de la IA, sinó qüestions que han estat entre nosaltres des de l’inici dels temps, han anat mutant en funció del context social i de les eines disponibles per als malvats, però el fons de la qüestió és exactament el mateix. Des dels sofistes (probablement abans), la manipulació i la persuasió de l’altre ha estat un obstacle per als qui perseguien alguna forma de veritat més o menys objectiva; des dels primers estadis tribals, la marginació per sexe, condició o diferències d’allò comú ha estat un desafiament per a qualsevol que entengui la igualtat com un bé; i si parlem de drets dels usuaris o dels ciutadans, és evident que la lluita per conquerir-los ens ha acompanyat des dels inicis de la nostra societat.
Tanmateix, seria absurd negar que algunes d’aquestes problemàtiques s’han vist clarament potenciades per les noves eines digitals, un cas clar és l’expansió de les notícies falses i de la desinformació. Amb l’augment de la disponibilitat de les eines comunicatives i la popularització de l’accés a aquestes és lògic pensar que hi haurà més casos d’informació esbiaixada o poc contrastada, de forma intencionada o no. Va passar amb la popularització de la Xarxa, també amb les xarxes socials i ara amb la IA generativa. Si podem inventar notícies creïbles amb poc esforç i a baix cost amb ChatGPT, és normal que n’hi hagi més, i el mateix succeeix amb la informació esbiaixada, poc fiable o superficial. Sempre hi haurà qui prefereixi la rapidesa i la senzillesa de crear un text amb ChatGPT, sense verificar-ne les fonts o la informació que ens proporciona, que l’esforç i el treball que costa escriure’l: conceptualitzar, reflexionar, documentar-se, escriure, revisar, etc. Altres, en canvi, gaudim del procés i emprarem la IA generativa com a assistent personal, com a suport per traduir una paraula, obtenir un sinònim, trobar paraules clau o idees relacionades, o fins i tot per desbloquejar el procés de posar títol a un text, que a alguns ens costa força.
A més, hi haurà qui sàpiga analitzar el context i entendre que per a un determinat tipus de textos (burocràcia, genèrics, repetitius, etc.) és molt útil tenir a mà un chatbot; per altres casos (creativitat, anàlisi, crítica, ètica, reflexió, etc.), correm el risc de fer el ridícul de manera espantosa. Un altre component important que cal tenir en compte és que no és el mateix utilitzar una eina d’IA per treballar una temàtica que un domina, que fer-ho sobre temes que ens són desconeguts. En el primer cas, serem capaços d’entendre quan el chatbot l’encerta, quan ens proporciona una idea útil i quan fallen les seves prediccions; en el segon, probablement serem víctimes de la seva aparent bona retòrica, de vegades mancada de sentit.
El cas dels biaixos, de nou, és una cosa molt humana. Ens han acompanyat sempre i probablement mai no deixaran de ser aquí. La IA beu de les nostres dades, de la informació que li proporcionem per aprendre, per la qual cosa repetirà aquests biaixos en les seves respostes si no som capaços de canviar el color de la informació original. Una altra opció és encarregar-se de polir les seves respostes per evitar-los, la qual cosa em consta que s’intenta des d’alguns sectors de la indústria, però no és una tasca fàcil. Aquí podem posar l’enfocament en la tecnologia i culpar la IA de perpetuar els biaixos, o podem intentar canviar l’educació dels joves i el context informacional, desenvolupar el pensament crític i intentar que l’educació en valors sigui una mica més que un simple complement de la formació dels ciutadans. Si no hi hagués biaixos en la informació que la IA «consumeix» per aprendre, seria molt més improbable que els reproduís en la generació de les seves respostes o comportaments. Per tant, si bé és important treballar per modular aquesta tecnologia, i evitar així reproduir els nostres errors, és molt més crucial intentar evitar-los nosaltres i buscar solucions perquè aquests biaixos desapareguin (en la mesura que sigui possible).
En el cas de les decisions sobre aspectes clau per a l’esdevenir de l’espècie, o la interacció amb sistemes mecànics o digitals de vital importància, tant l’anàlisi com la solució són breus, curts i fàcils d’entendre: hauríem de prohibir rotundament que aquest tipus d’actes siguin duts a terme de manera autònoma per sistemes d’intel·ligència artificial. Una altra cosa és l’acció supervisada i controlada per éssers humans; si som capaços de generar sistemes en els quals el control últim estigui en mans d’un expert o d’un operari, aquí podem ser una mica més laxos. No hem d’oblidar mai que qualsevol sistema digital és susceptible de ser hackejat, també la IA.
Conclusions
I és que les eines que han permès perpetuar les injustícies, augmentar la desinformació i la polarització o perpetuar els biaixos, són exactament les mateixes, conceptualment i tècnicament parlant, que les que han permès una popularització de l’accés a la informació, la possibilitat d’universalitzar el coneixement, d’afavorir l’accés a la formació o de potenciar la creativitat. Una altra cosa és el disseny i la implementació que es faci d’aquestes tecnologies, aquí les intencions del creador, dissenyador o programador tindran molt a dir en els resultats que l’eina ens ofereixi. També és important, crucial podríem dir, fer entendre als professionals del sector digital que l’ètica professional també els afecta, que no n’hi ha prou dient allò de «jo obeeixo ordres», «jo només creo l’eina» o «què puc fer jo per evitar-ne un mal ús?». Hi ha molts possibles dissenys i implementacions de les tecnologies que permeten que la IA existeixi, cal intentar potenciar els que tinguin en compte els nostres valors i ens ajudin a millorar el nostre context vital.
Del debat ètic, la regulació política i el desenvolupament del pensament crític (que tant necessitem) dependrà fins a quin punt serem capaços d’aprofitar les potencialitats positives de la IA, sense la necessitat de trucar a John Connor perquè ens ajudi a defensar-nos. I és que el sistema econòmic actual, amb el suport de la nostra classe política, serà més responsable del possible impacte negatiu de la IA que la tecnologia en si.
Documentació
ADELL, Ferran (2014). «Remediació, multimèdia i hibridació dels mitjans». Universitat Oberta de Catalunya, blog de l’assignatura Fonaments i evolució de la multimèdia del Grau de Multimèdia [en línia]. Disponible a: http://multimedia.uoc.edu/blogs/fem/remediacio-multimedia-i-hibridacio-dels-mitjans/
BERNERS-LEE, Tim (1998). «Semantic Web roadmap». World Wide Web Consortium [en línia]. [Data de consulta: 30/05/2023]. Disponible a: https://www.w3.org/designissues/semantic.html
CENTER FOR AI SAFETY (2023). «Statement on AI Risk». Center for AI Safety [en línia]. Disponible a: https://www.safe.ai/statement-on-ai-risk
MANOVICH, Lev (2013). Software Takes Command. Nova York: Bloomsbury Academic. DOI: https://doi.org/10.5040/9781472544988
Notes
1. La intel·ligència artificial general (AGI) és la capaç d’entendre, aprendre i aplicar el coneixement en el mateix grau que els éssers humans. Es tracta d’una IA que pot fer les mateixes tasques intel·lectuals que un ésser humà.
Cita recomanada: ADELL, Ferran. Desmitificant la intel·ligència artificial: entre alarmes i realitat. Mosaic [en línia], juny 2023, núm. 199. ISSN: 1696-3296. DOI: https://doi.org/10.7238/m.n199.2310
Deja un comentario