Universitat Oberta de Catalunya

Entrevista a Ferran Adell, especialista y docente en tecnología y sociedad

A raíz de los grandes avances tecnológicos que se están sucediendo cada vez más en la actualidad, muchos son los expertos que comienzan a plantearse las lineas que deberían seguir la ética y la moral en relación con la inteligencia artificial, la recolección de información personal en bases de datos, el control del mercado tecnológico y muchas otras cuestiones. ¿Está preparada la humanidad para dar el gran paso a la digitalización? ¿Son los llamados ‘nativos digitales‘ realmente audaces con la tecnología?

Filosofía y ética se unen en esta entrevista a Ferran Adell, especialista y docente en tecnología y sociedad, para dar respuesta a algunas de estas preguntas.

Tu trayectoria académica y profesional sería un claro ejemplo de multidisciplinariedad, pues estudiaste filosofía, pero también eres maquetador web, técnico informático, consultor digital y experto en el uso de las tecnologías digitales en la educación, aunando en la actualidad los dos contextos -el digital y el humanístico- como docente en varias universidades y como creador de contenidos. ¿Qué crees que te aporta el hecho de estar en contacto con ambos campos? ¿Cómo se retroalimentan estas dos vertientes?

En primer lugar, es importante decir que creo que, en la actualidad, después de unos años de desconcierto importante, los perfiles transversales humanidades-tecnología son cada vez más habituales en los entornos culturales y universitarios. Esto es así porque, poco a poco, con la consolidación de la revolución digital, hemos ido tomando conciencia de que no es posible entender los cambios sociales y culturales (ni tampoco los puramente tecnológicos) sin un punto de vista más amplio, que englobe tanto la óptica científica como el enfoque humanístico.

Es relativamente fácil -aunque no tiene por qué ser positivo-, aceptar socialmente una nueva tecnología que cambie de forma radical las baterías de nuestros dispositivos digitales, sin una reflexión ética o filosófica que acompañe este cambio. Sin embargo, cuando hablamos de tecnologías que afectan directamente a nuestra forma de crear, comunicarnos, relacionarnos, aprender, trabajar, etc. implementarlas sin una reflexión crítica al respecto sitúa al ser humano ante un abismo de desconcierto que dista mucho de lo que queremos como base para nuestra existencia vital.

Y solo hay una forma de luchar contra esta sensación de desconexión entre los individuos y la tecnología contemporánea y pasa por ser capaces de crear mapas mentales propios que permitan relacionar conceptos, entidades, afectaciones y condicionantes, en un proceso de autodeterminación individual y colectiva que nos lleve a un mayor conocimiento del entorno actual.

Los que empezamos en esto de la tecnología digital cuando era imposible manejar un ordenador sin mantener una relación cercana con el código, o como mínimo con un intérprete de comandos, los que vivimos de cerca la implantación de los primeros ordenadores en los entornos laborales, universidades, etc. sabemos cuán importante es entender, más allá de lo que nos enseña la interfaz gráfica de un sistema operativo, lo que pasa detrás de nuestras acciones digitales. Uno de los grandes causantes de esta sensación de desconexión usuario-tecnología, sobre todo cuando uno tiene inclinaciones personales claras hacia las ramas humanísticas del conocimiento, es el hecho de no ir más allá, en cuanto a comprensión se refiere, de las acciones visuales que el software muestra en pantalla.

Fue en este contexto, sumado a una clara inclinación personal por el pensamiento crítico, la reflexión, la racionalización de los cambios, donde vi que si uno quería aportar algo sustancial al conocimiento contemporáneo, no tenía más remedio que condicionar su pensamiento humanístico, su posición teórica frente al mundo, a las nuevas herramientas digitales. Probablemente, en mi caso, las vertientes del perfil provienen más de una inclinación natural que de una reflexión previa, que sí se ha dado pero a posteriori.

Ya en los años de universidad, nunca quise enfocar la carrera hacia la filosofía clásica, alejada de la realidad en muchos aspectos, hacia la historia de la filosofía, que es la que desempeña el papel protagonista en la educación formal del ámbito. Siempre intenté enfocar los estudios, trabajos, artículos, hacia lo que podríamos llamar filosofía de la tecnología, que necesita, para tener éxito, de este enfoque dual entre los dos contextos.

En mi caso, como comentaba, no fue una decisión personal consciente convertirme en técnico informático y montar y desmontar ordenadores hasta la saciedad, o instalar y reinstalar sistemas operativos hasta altas horas de la noche, sino que la necesidad y la voluntad de usar el enorme potencial de las nuevas herramientas digitales para la creación, difusión y expansión del conocimiento me llevaron a querer aprender, de primera mano, cómo funcionaban los nuevos medios digitales, para poder participar activamente en su implantación social y gritar a los cuatro vientos la necesidad de analizar los nuevos cambios y condicionar su evolución a los valores éticos universales.

Poco a poco, ante la estupefacción que uno sentía cuando leía artículos sobre tecnología en publicaciones serias, cargados de falsedades intencionadas o de un desconocimiento del medio que no hubiésemos aceptado en ninguna otra área del conocimiento, resultaba imprescindible la tarea de intentar aportar un poco de luz reflexiva a la entonces nueva revolución digital. Se publicaban artículos que demonizaban las tecnologías en general, que relacionaban los videojuegos (esto sigue pasando hoy en día…) con todos los males de la sociedad o que, simplemente, usaban el contexto digital para dar salida a un montón de ideas políticas sin sentido, ante las que cualquier usuario básico de los ordenadores de la época se echaba las manos a la cabeza. Era necesario, pues, intentar aportar una reflexión crítica pero fundamentada en torno a los cambios que la tecnología digital presentaba.

En ese momento, la fractura entre ramas del conocimiento vivió su momento más álgido, en el que los técnicos informáticos, los programadores, los creadores de tecnología, no tenían en cuenta la gran mayoría de las reflexiones que se publicaban, dada su falta de realismo y acierto. Este fue otro factor clave para que decidiera relacionar mis conocimientos, y mi vocación por las tecnologías digitales, con mi inclinación natural a enseñar, escribir, crear conocimiento útil, y ponerlas al servicio de lo que yo creía que era la única solución para que esto de la revolución digital no fuera una barrera insalvable para los ciudadanos, sino una ayuda de incalculable valor para la realización de la existencia humana.

Con los años, sigo pensando que la figura que he acabado asumiendo, casi la de un traductor entre los técnicos informáticos puros, los programadores y creadores digitales y todos los perfiles culturales actuales, es más necesaria que nunca ante la aparición de tecnologías como la inteligencia artificial (IA) o el internet de las cosas (IoT, en inglés), que ponen en cuestión algunos de los parámetros básicos sobre los que hemos construido la sociedad actual y los derechos y la ética que la sustentan.  

Hablemos de los llamados “nativos digitales”. Muchas personas consideran que tienen más facilidad para desenvolverse en una sociedad cada vez más tecnológica. ¿Qué opinas?

Este tema tiene una gran relación con lo que comentaba en la respuesta anterior. Ante la pérdida de la necesidad de entender cómo funciona la máquina y la aparición de la tecnología puramente de consumo —dispositivos pensados para que el usuario cree o interactúe solo con la capa superficial del sistema, lo que dificulta de forma significativa cualquier posible proceso de comprensión de lo que sucede detrás de esta—, la relación de los usuarios con la tecnología es cada vez más superficial y menos significativa. La uniformización de la interfaz gráfica hace que no seamos capaces de detectar diferencia alguna entre lo que vemos en un teléfono inteligente, en un ordenador de sobremesa o cuando nuestro televisor es capaz de conectarse a la red.

Este es uno de los grandes problemas, para mí un gran malentendido, de lo que se conoce como nativos digitales. Es verdad que las usuarias y los usuarios que han nacido ya con un teléfono inteligente bajo el brazo son capaces de usar estos dispositivos, y las aplicaciones que contienen, de una forma mucho más intuitiva y natural que los mayores que han tenido que adaptarse a ellas en una etapa vital mucho menos permeable a los cambios radicales en las rutinas personales; ello, sin embargo, no quiere decir que su comprensión sobre el medio, sobre en lo que este se fundamenta, o sobre su ecosistema propio, sea mayor, menos aún si nos referimos a su impacto social o cultural.

Por eso hace unos años escribí un artículo para el CCCB LAB, titulado «Nativos digitales: del mito a la realidad», en el que intentaba poner de manifiesto la necesidad de formar a los nuevos ciudadanos no solo en el uso de las TIC, sino en la comprensión de su ecosistema y su impacto ético y social, cada vez más significativo.

Me permito citarme a mí mismo:

“Los estudiantes de hoy en día han estado en contacto con las tecnologías desde los primeros estadios de su niñez, son lo que se llama nativos digitales. Tienen facilidad para la comprensión del funcionamiento básico de los dispositivos y el software, pero ello no significa que entiendan mejor el marco digital en el que se desarrolla la sociedad actual. Es más necesario que nunca reivindicar una formación humanística asociada a las nuevas tecnologías, que permita una comprensión del entorno digital y que, además, contribuya a hacer que los ciudadanos sean más críticos y estén más implicados en el devenir de la sociedad.”

Y aquí vuelve a quedar claro el porqué del doble perfil, algo que creo que debería extenderse a la educación de los nuevos ciudadanos. El problema principal es que se está dando mucha importancia al qué y al cómo, esto es, a aprender a usar las herramientas digitales, adquirir nuevas competencias o destrezas (skills), y muy poco a la valoración crítica de estas: ¿por qué las usamos?, ¿qué impacto social tienen?, ¿hasta qué punto es lícito digitalizar todos los aspectos de la existencia humana?, etc. En pocas palabras, lo que el pensamiento humanístico debería aportar a la visión puramente tecnológica: la reflexión crítica sobre cómo se desarrolla la tecnología, la conceptualización y relación entre conceptos, y la ética de los medios digitales (que debería ocuparse de trasladar al entorno digital los mismos derechos y los mismos deberes que hemos acordado entre todos).

Para resumir, te diría que es cierto que los nativos digitales son mucho más capaces de interactuar con los nuevos dispositivos y las nuevas aplicaciones y tienen menos dificultades para cambiar entre entornos digitales, pero, a la vez, son incapaces, de la misma forma que las generaciones anteriores, de entender cómo funciona «la máquina». Además, la habitualidad en el uso y el hecho de considerar la tecnología digital como algo normal y rutinario potencian esta desconexión sobre su impacto social.

Y parafraseando el artículo que mencionaba anteriormente, diría que «tenemos que trabajar los fundamentos de la tecnología, aquellos que no están sometidos al cambio constante. Y lo tenemos que hacer en las aulas, también en los entornos pedagógicos no formales, desde los primeros estadios del proceso educativo de los niños y las niñas. La inteligencia humana es universalmente capaz de llenar los vacíos de un mapa relacional con la experiencia, pero no de inventar continuamente nuevas teorías que permitan definir la estructura de las relaciones. Para desarrollar esta tarea necesitamos investigación, reflexión, debate y un proceso de creación colectiva».

¿Crees que acceden al conocimiento de una manera distinta a las generaciones anteriores y que las prácticas educativas y estrategias docentes deberían adaptarse a las nuevas necesidades que estas nuevas generaciones demandan?

Por supuesto, pero esto no es algo asociable solo a la revolución digital. En realidad, uno de los grandes problemas del sistema educativo formal en general es su inmovilismo frente a los cambios sociales y culturales del entorno en el que se desarrolla;, en consecuencia, no es ahora cuando han aparecido las nuevas corrientes pedagógicas que cuestionan este sistema formal, sino que existen desde hace muchos años. Y de la misma manera que, en un momento de la evolución pedagógica, fue necesario aceptar que no es cierto que los seres humanos puedan ser entendidos como una tabla rasa en la que podemos «escribir» cualquier cosa, independientemente del individuo, es necesario ahora investigar, formalizar e incorporar los nuevos cambios sociales a la educación.

Para esto es muy útil entender lo que Pinker nos proponía hace unos años: la genética condiciona de forma significativa el devenir de un individuo, del mismo modo que lo hace su entorno social, la educación de los padres o la experiencia personal.

La preocupante falta de adaptación a los cambios que padece el sistema educativo es, a mi entender, uno de los mayores males de la sociedad contemporánea. Y eso abarca desde los primeros estadios de la educación, también en casa, hasta la educación universitaria. Es cierto que hemos cambiado algunas cosas, ya no se memorizan listas de reyes como antaño, pero no es menos cierto que seguimos confiando demasiado en un método de aprendizaje que pasa por un estudio memorístico que ha demostrado ser, cuando menos, poco efectivo. Solo es necesario preguntar a cualquier adulto qué recuerda de su educación formal y raras veces nos encontraremos ante alguien que recuerde una parte importante de los contenidos estudiados.

El aprendizaje por proyectos, el learn by doing, encaja mucho mejor con el entorno tecnológico actual que los métodos clásicos, y no es necesario ser un revolucionario en pedagogía para entender que este procedimiento es aplicable en muchos sistemas pedagógicos diferentes. Es falsa la teoría que defiende que no se innova más en educación porque el sistema no lo permite. Es cierto que el entorno formal actual dificulta algunas transiciones, pero con formación de calidad para los docentes y una percepción crítico-educativa de las herramientas digitales, pueden hacerse muchas cosas sin cambiar el sistema radicalmente, y lo dice alguien que difiere sustancialmente de las teorías pedagógicas que lo sustentan.

De ahí que algunos intentemos desarrollar proyectos innovadores que no impliquen siempre un cambio radical en cuanto a estructuras pedagógicas. En mi caso, en torno a los videojuegos, para acercarlos a la educación formando a los docentes en su uso y comprensión para que sean capaces, no solo de usar un videojuego educativo, sino de crear actividades o experiencias educativas basándose en los videojuegos comerciales con los que los más jóvenes (y no tan jóvenes) juegan en su casa. Minecraft es un claro ejemplo de una herramienta pedagógica de potencial infinito que no requiere de una transformación global del sistema educativo para ser implementado en las aulas.

Lo que para mí es especialmente destacable en nuestro momento es que por primera vez tenemos las herramientas creativas necesarias para aportar nuevas formas de aprender. Dichas herramientas nos permiten potenciar aquellas competencias, habilidades, intuiciones, experiencias que, más allá de formar a los ciudadanos en una cultura básica necesaria y de asegurar el aprendizaje de unos conocimientos imprescindibles, sean capaces de dotarlos de la autonomía mental suficiente para formar sus propios mapas mentales de valores y conocimientos, así como para entender cómo se desarrolla el ecosistema en el que tienen que vivir.

Recuerdo, hace unos cuantos años, cuando estudiaba para el certificado de aptitud pedagógica en la universidad, cómo el profesor nos explicaba que está más que demostrado que los niños y las niñas retienen un 10 % (máx.) de lo que se les explica de viva voz, un 20-30 % de lo que visualizan en un entorno compuesto (audio, vídeo, etc.) y un porcentaje mucho más elevado, cerca del 80 %, de aquello que hacen por sí mismos o experimentan en sus propias carnes. Es decir, que si uno experimenta cómo crece un tomate, en todos sus estadios, entiende mucho más de tomates que si simplemente ve en un gráfico, o en una imagen, el proceso de cultivo de este fruto. Y esto es aplicable a casi cualquier cosa, también a los valores que son mucho más fáciles de aceptar como propios cuando uno los experimenta, por ejemplo, en un proyecto de creación colectiva.

Por esto mismo reivindicaba que el problema no es tanto la falta de capacidad de adaptación del sistema formal educativo a los cambios digitales, sino la eterna falta de adaptación de la escuela a los cambios sociales en general. Hay aún demasiados miembros del profesorado y responsables educativos que oponen aprendizaje a diversión, que no son capaces de aceptar que sus estudiantes pueden aprender mucho (mucho más) si no están sentados en una silla durante siete horas, lo que resulta claramente antinatural respecto a las condiciones básicas de nuestra especie.

La educación «perfecta» pasa, sí o sí, por una relación más directa con el entorno, con un aprendizaje contextualizado y mucho más in situ. Yo soy de los que cree que las niñas y los niños deberían pasar muy poco tiempo encerrados en la escuela y mucho más en entornos abiertos (en el campo, en la calle), en museos, en granjas, etc. No obstante, dado que en nuestra sociedad urbanita esto es todavía muy difícil de aceptar (no así en cualquier escuela rural) las tecnologías digitales nos permiten generar contenidos educativos mucho más interactivos y centrados en esta experimentación directa de los fenómenos, a la vez que simulamos situaciones reales en entornos virtuales para potenciar esta experimentación en primera persona.

Por consiguiente, no se trata tanto de que los individuos o las formas de acceso al conocimiento hayan cambiado —que sí, que es totalmente cierto—, puesto que su tipología no difiere mucho de las que hemos arrastrado siempre en educación, sino de que hay mucha más disconformidad entre las mentalidades críticas. Dicha disconformidad, desde mi punto de vista, nace de comprobar que cuando tenemos fácil acceso a las herramientas necesarias para provocar un cambio disruptivo en la educación, que proporcione no solo una formación más eficiente sino mucho más placentera, este no se lleva a cabo simplemente por el inmovilismo que mencionaba, o por la falta de mentalidad crítica de los responsables educativos.

En cuanto al sistema educativo, especialmente en el ámbito universitario, parece que, cada vez más, empiezan a implementarse nuevas prácticas que acercan el modelo educativo a lo digital. Un ejemplo de ello sería el Campus Virtual. Sin embargo, ¿no crees que simplemente estamos ante una digitalización del mismo sistema de siempre? ¿No deberían transformarse las estructuras clásicas teniendo en cuenta que ni los espacios, ni las relaciones, ni tan siquiera las disciplinas, son los mismos?

Totalmente de acuerdo. Esto tiene mucha relación con lo que comentaba hace un momento: no se trata solo de digitalizar los contenidos, o dar acceso a la información en un formato diferente, sino de transformar los procesos, los contenidos, las vías de relación y comunicación, etc. Se trata, en definitiva, de cambiar radicalmente un sistema educativo que no funciona como tal. Solo basta con analizar cómo desde los entornos laborales «se quejan» continuamente de la falta no tanto de las habilidades tecnológicas de su personal —que también— como de la capacidad de estos de entender lo que pasa, saber conceptualizar y tomar decisiones coherentes basadas en un discurso propio y sostenible.

Y está bien que ofrezcamos posibilidades nuevas a los estudiantes, entornos más dinámicos, flexibles y a distancia, pero estos solo culminarán su realización si somos capaces de cambiar también lo que enseñamos, cómo lo enseñamos y, sobre todo, el porqué lo enseñamos.

En el campo de los materiales educativos, por ejemplo, que suelo crear de forma habitual, es muy difícil aún implementar sistemas interactivos, adaptables, multimedia e híbridos que permitan generar una experiencia educativa más rica y compleja, porque el sistema de creación, gestión y publicación de estos materiales no está a la altura del cambio necesario. Los costes se disparan respecto a las producciones tradicionales, y la falta de interés en desarrollar entornos de producción propios, que permitan crear materiales híbridos sin asumir costes desorbitados y basándose en objetivos solo pedagógicos, dificulta todavía más el cambio.

Los nativos digitales son capaces de entender casi de manera intuitiva el funcionamiento de tecnologías que para generaciones anteriores podrían resultar complejas. Sin embargo, ¿podríamos hablar de una verdadera comprensión que recoja, no solo los aspectos prácticos, sino también los culturales, sociales, etc.? En otras palabras, ¿se está dejando de lado la reflexión y la búsqueda de una conciencia crítica en pro de la funcionalidad? Y de ser así, ¿qué consecuencias traería esto para las generaciones actuales y futuras?

Aunque creo que esto ya lo hemos respondido en las preguntas anteriores, complementaría la respuesta diciendo que, y déjame que manifieste mi total disconformidad con el sistema económico actual, la pregunta que deberíamos hacernos es por qué al sistema, como entidad, no le interesa para nada que los ciudadanos tengan una mentalidad más crítica, una mentalidad que cuestione no solo el consumo tecnológico en particular, sino el sistema económico global. No interesa que la ciudadanía tome conciencia de la importancia de tener una mentalidad crítica como único garante de la capacidad de defender y reclamar el respeto a sus derechos, al desarrollo personal y colectivo, a la realización, etc.

El sistema en el que vivimos es un sistema injusto, centrado en las cuentas de resultados y los beneficios empresariales, y no en el beneficio social o individual de la mayoría. Las clases medias desaparecen y los derechos laborales e individuales se suspenden cuando la economía falla, lo que deja al individuo desamparado e incapaz de reaccionar ante la desaparición progresiva del «teórico» estado de bienestar.

Si al mercado, y a quien toma las decisiones, no le es favorable la mentalidad crítica de la ciudadanía, porque esta cuestionaría los fundamentos globales del sistema, hay que ser muy ingenuo para pensar que el mismo sistema va a potenciar esta mentalidad crítica cuando a duras penas se permite la disidencia filosófica, y solo cuando esta es teórica. Pretender, por tanto, que sea el mismo sistema el que promulgue un cambio es, cuando menos, naíf.

Planteabas en la pregunta las posibles consecuencias de esta falta de conciencia crítica, y tampoco soy muy optimista con respecto a ello, la verdad. La tendencia del ser humano hacia una universalización de la mediocridad, en vez de universalizar los valores y los derechos comúnmente aceptados, nos está llevando a una sociedad en la que, a pesar de que todo el mundo tiene y manifiesta una opinión en las redes sociales, esta carece de los fundamentos necesarios para que cualquier argumento sea considerado válido y sostenible. La verdad como tal, e incluso la veracidad, han perdido su valor y su papel como condiciones de posibilidad para cualquier debate serio.

Y esto no está solo relacionado con las tan de moda noticias falsas (fake news), sino con todo el ecosistema informacional en el que nos movemos, en el que ya no es necesario aceptar las normas básicas de la argumentación, el debate o la discusión: todo vale. A la vez que uno siente orgullo de especie cuando ve que grupos de periodistas buscan formas para crear publicaciones en las que se recupere este objetivo central de contar la verdad, siente una enorme decepción de que esto sea necesario en pleno siglo XXI, cuando los medios tradicionales dejan mucho que desear en este aspecto.

Las perspectivas de futuro, si no hacemos algo para revertir esta situación, son malas. Malas porque la ciudadanía tiene una capacidad crítica innata, yo lo creo así, pero esta necesita ser desarrollada, practicada, educada si se quiere. Y el sistema actual está más por la labor de alienar esta capacidad crítica en pro de una existencia mucho más neutra y pasiva de lo que, desde mi punto de vista, sería deseable. Porque alienando la capacidad crítica el sistema se siente cómodo imponiendo modelos de consumo, de ocio, de realización personal, etc. Modelos que encajen en el ecosistema económico actual y que permitan, por ejemplo, que los usuarios acepten los términos y condiciones de cualquier cosa sin ni siquiera preocuparse de gestionar las opciones de privacidad que el mismo servicio ofrece.

Nos quejamos de que no se regulan los derechos de los usuarios y las usuarias en la red, pero la responsabilidad es compartida. Estos y estas han de asumir como propia la defensa de sus derechos en aquellas acciones que solo dependen de ellos: cómo gestiono mis redes sociales y mi información en la red, cómo configuro mis servicios dentro de las opciones disponibles, cómo escojo qué aplicaciones uso en función del respeto que estas planteen a mis derechos, etc. En efecto, como comentaba, es una responsabilidad compartida porque, en muchos casos, no hay una alternativa a ceder nuestros derechos que no sea dejar de usar determinados servicios, algo que no siempre es posible.

Para nadie es un secreto que la tecnología está transformando nuestra cultura y nuestra concepción de nosotros mismos y de los demás. Internet, y la tecnología en general, por ejemplo, son grandes aliados de la educación. Ahora bien, desafortunadamente, en esta alianza se entreven intereses económicos y/o políticos. Teniendo en cuenta esto, ¿no crees que es peligroso que la tecnología siga siendo controlada, en su mayor parte, por el mercado neoliberal en lugar de por los propios usuarios? ¿Qué medidas deberían empezarse a implementar?

No solo es peligroso, es desastroso para quien imagine un futuro más libre, más abierto y con igualdad de derechos. El acceso a la tecnología, aunque solo algunos países lo hayan reconocido como tal de forma efectiva, es un derecho que debería tener garantizado toda la ciudadanía igual que cualquier otro derecho universal. Por tanto, deberíamos evitar en lo posible los costes de acceso a esta tecnología que una parte importante de la población no puede asumir.

Las cuotas mensuales para el acceso a determinadas herramientas, tan de moda hoy en día, son un claro ejemplo de esta barrera que aparece cuando el acceso a las herramientas creativas pasa por asumir una cuota mensual que muchos usuarios no pueden pagar. Lo mismo ante el consumo de contenidos digitales: la transición de un modelo más abierto a un modelo mayoritariamente controlado por empresas multinacionales nos sitúa en un entorno en el que, como en tantos otros, los ingresos mensuales que uno tenga determinarán de manera significativa su acceso a la tecnología y, en consecuencia, a la cultura y al conocimiento.

Aquí las soluciones pasan por dos frentes claros. En primer lugar, una mayor implicación de las Administraciones públicas en el desarrollo de las tecnologías libres, que deben ser competitivas y funcionales como lo son sus alternativas comerciales, lo que no suele suceder especialmente en los ecosistemas de usuario. Una implicación que debe ser, sí o sí, económica, lo que permitiría que el desarrollo del software libre salga del terreno del altruista voluntario para pasar a ser un profesional que trabaja para el bien común. Y digo «tecnologías libres» para dejar claro que no hablamos solo de software, sino también de hardware, de las redes de comunicación, de los contenidos educativos, de los formatos de archivo y un largo etcétera.

Y, en segundo lugar, la toma de conciencia de la ciudadanía de la importancia de participar activamente, como creadores y como consumidores, en el desarrollo de este tipo de tecnologías libres. Si los usuarios y las usuarias siguen pensando eso de «Si es libre es malo, seguro que hay una alternativa comercial mejor», es muy difícil avanzar en este campo. Porque, aunque en muchos casos sea verdad (es complicado competir desde el sector libre con paquetes de oficina (suites) como el de Adobe), no es menos cierto que para la mayoría de las acciones y actividades estándares disponemos de muchas alternativas libres que funcionan muy bien, desde compresores a editores básicos de imágenes o procesadores de texto, por citar algunos ejemplos.

Y estas tecnologías no deben caracterizarse solo por ser gratuitas, aunque en la mayoría de los casos lo son, sino que han de construirse en torno a valores de creación y compartición del conocimiento pensados para promover el avance y la innovación, y no tan centrados en los resultados económicos. El software libre, el hardware abierto, los datos abiertos y todo el conjunto de tecnologías que suelen asociarse al término inglés open son un buen ejemplo de ello.

Y estos dos frentes dependen —mayormente— de la educación de los nuevos ciudadanos, como casi en la mayoría de los cambios que uno quiera plantear en los ámbitos social y cultural. Es importante alejar las escuelas de los entornos de software cerrados como protagonistas absolutos de la formación tecnológica que los estudiantes reciben, y más importante aún transmitir la importancia de que algo tan transcendental para nuestra existencia debe formar parte del bien común, de la esfera de lo público y lo universalmente accesible. Y aquí volveríamos al pensamiento crítico, a la capacidad de entender el ecosistema digital de forma global, etc. Una cosa lleva a la otra, seguro.

El uso que de los macrodatos se hace en la actualidad parece ser otro de los grandes problemas éticos de nuestro tiempo. Con lo anterior, resulta interesante reflexionar sobre el papel que su recolección y almacenamiento desempeña en la sociedad al afectar a la privacidad y la intimidad de las personas, entre otras esferas. ¿Qué opinas de los macrodatos y de los usos que de ellos hacemos en la actualidad? ¿Crees que nos perjudican más de lo que nos benefician?

En el caso de las problemáticas éticas relacionadas con los datos, dado que son mucho más fáciles de publicitar, hemos visto cambios en el sentido de garantizar la propiedad pública de estos para dedicarlos al bien común. Iniciativas como la de los datos abiertos son un claro ejemplo de ello. Y podríamos debatir aún más si abordamos aspectos como la importancia de verificar la propiedad de los datos, de limitar legalmente el uso que se hace de ellos, etc., algo en lo que quiero pensar que la mayoría, no económicamente implicada, estaría de acuerdo. Pero si limitamos el debate a los datos nos olvidamos de que, en realidad, el fondo de la cuestión es plantear que en el entorno digital los derechos de los usuarios y las usuarias, la ética universal, deben regir siempre el desarrollo de la tecnología, independientemente del campo en cuestión.

Los datos son el nuevo oro, dicen, y estoy totalmente de acuerdo; lo que hay que cuestionar es quién es el legítimo propietario de los beneficios que estos generan. Los macrodatos nos permiten ya gestionar de forma mucho más eficiente las ciudades, los transportes, la atención médica o los cambios en el clima; en consecuencia, lo que debemos garantizar es que el acceso a estos sea libre y abierto, para asegurar que el beneficio que se obtiene de ellos sea global y no solo para los agentes comerciales del sector. En este caso, la legislación se presenta como el mejor aliado posible para garantizar el acceso libre a los datos, pero cuando los poderes públicos están también vinculados a los grandes agentes del sector, por beneficios y favores mutuos, la cosa se complica de manera considerable.

De nuevo, e insistentemente, volvemos a la importancia de la educación: empoderar a los usuarios y a las usuarias haciéndoles conscientes de que de estos datos depende, en gran medida, la eficiencia en la gestión de los recursos públicos, la adaptación a las necesidades reales de los servicios y la garantía de que no serán usados para reprimir o restringir sus derechos, entre otros el derecho a la intimidad y la privacidad.

Llevando el tema de la ética y la moralidad al ámbito de la inteligencia artificial, ¿estás de acuerdo en que las máquinas se programen para que puedan tomar sus propias decisiones? ¿Para que puedan, al fin y al cabo, convertirse en sujetos con capacidad moral?

Para esto es muy interesante leer los tres artículos que David Casacuberta ha publicado recientemente en el CCCB LAB: Injusticia algorítmica, Sesgo en bucle y No es computable. No creo que se haya publicado nada más interesante hasta el momento sobre este tema. Y sí, por si alguien se lo pregunta, aparte de ser buenos amigos, tengo clara devoción por las ideas de Casacuberta. Creo que su visión sobre la inteligencia artificial es algo que todos los desarrolladores del campo, así como los humanistas interesados, deberían tener siempre presente.

Para no llenar la respuesta de citas infinitas de estos artículos me quedo con la siguiente:

«Es arriesgado reducir la ética a un cálculo matemático de daños y opciones posibles. Los algoritmos de aprendizaje automático se valen del contexto para tomar decisiones, sin una comprensión causal de los fenómenos que pretenden predecir. El conocimiento ético humano es pre-reflexivo, no es la mera conclusión de un argumento puramente racional, sino que es el resultado de un proceso formativo que empieza durante la infancia. Se trata de una esfera de la actividad humana a la que tenemos un acceso inmediato, de manera intuitiva, y es el resultado de compartir naturaleza y cultura. Esta intuición por el momento no es reducible a algoritmos, ni de los basados en reglas y definiciones, ni de los basados en similitudes estadísticas».

Por tanto, la respuesta al primer interrogante sería otra pregunta: ¿qué tipo de decisiones? Yo soy de los que creen que por el hecho de que podamos hacer algo en tecnología ello no implica que debamos hacerlo, un argumento muy básico pero que creo que hemos olvidado completamente. Que la tecnología digital nos permita sustituir humanos por robots en muchos campos no quiere decir que esto, desde el punto de vista de la ética y la realización humana, sea positivo, ni siquiera aceptable.

Por consiguiente, no podemos universalizar la respuesta a esta pregunta. En aquellos campos en que los seres humanos corran peligro o se expongan a sufrir algún daño por realizar una acción concreta —estoy pensando desde la extinción de incendios hasta el rescate de personas o la gestión de materias peligrosas—, creo que no se genera debate. Crear inteligencias artificiales que puedan desarrollar estas tareas sin la necesidad de arriesgar vidas humanas es positivo, no hay ninguna duda. Pero en otros campos, desde la educación a la atención médica o la gestión social, estas inteligencias artificiales no pueden ser más que un apoyo a la toma de decisiones, una herramienta al servicio de mejorar y afinar los juicios y las intuiciones humanas.

En este sentido, y adoptando una posición muy personal y subjetiva, he de decir soy de los que creen que no debemos sustituir al ser humano por la máquina en aquellos casos en que haya un contacto directo entre seres humanos, aun cuando a máquina pueda garantizar la misma eficiencia, o incluso mayor, que este. Aunque lleguemos a recrear de forma prácticamente idéntica el comportamiento humano, no creo que sea posible, hoy por hoy, digitalizar nuestra sensibilidad en el sentido filosófico del término.

Y, por último, respecto a la capacidad moral, tengo serias dudas de que podamos atribuir esta a la inteligencia artificial, como mínimo teniendo en cuenta cómo la hemos entendido hasta ahora. Desde mi punto de vista, independientemente de la tecnología implicada, incluso en estos casos en los que los mismos creadores no son capaces de acabar de entender el funcionamiento real de un algoritmo basado en el aprendizaje automático, la responsabilidad moral recae sobre el ser humano, bien directamente sobre los desarrolladores, bien sobre los responsables del proyecto. Y, ante la objeción habitual de «Pero en este caso, Ferran, nadie va a querer hacer determinadas cosas o programar las máquinas para determinadas tareas…», mi respuesta siempre es clara: si ante un desarrollo tecnológico innovador sus responsables no son capaces de asumir las responsabilidades éticas que de éste se derivan, es que indudablemente no deberíamos estar desarrollando esta tecnología.

Y finalmente, a modo de conclusión, ¿por qué se debe, entonces, no solo repensar la ciencia desde las humanidades, sino también las humanidades desde la ciencia?

Lo que creo es que debemos empezar a olvidar ya esta fractura artificial entre ciencias y letras, entre tecnología y humanidades. El conocimiento es transversal, hoy más que nunca, y así deben ser una gran parte de los perfiles profesionales. La extrema especialización a la que hemos sometido al personal académico y científico en la actualidad nos ha llevado a un entorno en el que pensamos que todos los expertos en un área cualquiera del conocimiento deben estar ultraespecializados, y esto hace que perfiles transversales como el que reivindicaba al principio de la entrevista cuesten mucho de desarrollar a nivel profesional o académico.

No sé si se trata tanto de repensar como de entender realmente la función de las humanidades y las ciencias, y cómo estas se retroalimentan entre sí. De la misma forma que un científico que experimente en un laboratorio debería plantearse continuamente el impacto social y ético de su trabajo, todas las ramas de las humanidades que pretendan conocer y explicar lo que pasa en el mundo deberían ser capaces de asumir el método y el conocimiento científico como referencia para muchas de sus valoraciones. No obstante, de nuevo, no es una valoración absoluta. Con esto no quiero decir que no deba haber perfiles puramente científicos que «no salgan del laboratorio» o humanistas que basen todo su trabajo en valoraciones e intuiciones mayormente subjetivas, sino que estos no pueden ser mayoría en una disciplina o en un equipo de trabajo.

Esto es importante en muchos aspectos, no solo para la divulgación científica o del conocimiento en general, que reclama una traducción pedagógica de los resultados académicos a un lenguaje entendible por la mayoría social, sino también en el núcleo de cualquier grupo de investigación o desarrollo, que debería asumir como propio el pensamiento ético y filosófico sobre el impacto social de los avances científicos.

El único modo que tenemos de garantizar que ciencia y tecnología avanzan conforme a nuestros valores universales y de dotar a las humanidades de un rigor muy necesario en algunos campos es precisamente asumiendo que el entorno actual es transversal por naturaleza, dada la fuerte afectación social y cultural de la tecnología, y la dependencia cada vez más significativa que tenemos como grupo del conocimiento y los avances científicos.


Cita recomendada: MOSAIC. Entrevista a Ferran Adell, especialista y docente en tecnología y sociedad. Mosaic [en línea], octubre 2018, no. 164. ISSN: 1696-3296. DOI: https://doi.org/10.7238/m.n164.1835.

Ferran Adell

Ferran Adell es profesor universitario, filósofo e investigador. Actualmente se encuentra estudiando el uso de las TIC en la educación y, particularmente, la utilización de los videojuegos como entornos para el aprendizaje. La edición digital y las implicaciones sociales de la tecnología, son otros de sus campos de estudio. Profesor en la Universitat Oberta de Catalunya (UOC) y en la Universitat Autònoma de Barcelona (UAB) así como de diferentes másteres y posgrados. Adell es responsable del proyecto Videojocs i Educació, para el que crea contenidos docentes para profesores y profesionales interesados en el uso de los videojuegos comerciales en la educación. Formación personalizada, modificaciones de juegos para la educación, creación de contenidos audiovisuales relacionados, experto en el uso de Minecraft en entornos educativos. También ocupa tareas de consultoría digital para editoriales y pequeñas empresas, principalmente culturales.

Deja un comentario