Universitat Oberta de Catalunya

¿Una Realidad Virtual feliz? Del laboratorio a la popularidad privativa

Para romper el hielo, con los estudiantes de Realidad Virtual (RV) solemos empezar el semestre recomendando el visionando de la primera entrega de Matrix, de 1999. Aunque la película de los hermanos Wachowski ya tiene 17 años, nunca nos defrauda. Dado el catálogo de conceptos, gadgets y tópicos vinculados a la RV que nos proporciona, siempre acabamos entablando interesantes discusiones. Actualmente también nos resulta muy útil comparar la visión sobre la RV que transmite Matrix con la actual avalancha que nos llega de anuncios de nuevos sistemas de visualización comerciales de RV y de Realidad Aumentada (RA): Oculus Rift, Samsung Gear VR, HTC Vive, Sony Playstation VR, Google Daydream, Pinc, Microsoft Hololens, Magic Leap y Epson Moverio, entre otros. Es agradable leer las publicaciones de divulgación sobre tecnología digital porque andan repletas de fotos y vídeos que muestran a gente joven, saludable, feliz y entusiasta usando máscaras high tech, algo que nos transporta a las antípodas del mundo tenebroso y sin esperanza de Matrix, y ya puestos, a las antípodas también de lo que podemos ver habitualmente si paseamos por las calles. Han pasado casi cincuenta años desde que el equipo liderado por Ivan Sutherland empezara a desarrollar en un laboratorio del MIT La espada de Damocles, el primer casco de RV con sistema de detección del cambio de orientación del punto de vista del usuario. El proyecto fue financiado parcialmente con fondos procedentes de la ARPA (Advanced Research Projects Agency) del Departamento de Defensa de los Estados Unidos, al igual que la primera fase de lo que más tarde acabaría siendo internet.

Uno de los primeros prototipos de sistema de RV, creado por el equipo de Ivan Sutherland hacia 1968 Foto de Pargon, 2008, publicada bajo Creative Commons BY 2.0 en Flickr: https://flic.kr/p/4HYWqe

Uno de los primeros prototipos de sistema de RV, creado por el equipo de Ivan Sutherland hacia 1968 Foto de Pargon, 2008, publicada bajo Creative Commons BY 2.0 en Flickr: https://flic.kr/p/4HYWqe

Actualmente vivimos una eclosión de visores y sistemas de detección para uso comercial. Uno de los visores estrella de la nueva ola, Oculus Rift, ha sido adquirido por un gigante de las redes sociales y la mayoría de los nuevos dispositivos han sido desarrollados por las grandes compañías que lideran el entretenimiento, los periféricos y los terminales de telefonía móvil. Para comprender la dimensión del salto que estamos viviendo ahora hay que recordar un acontecimiento que sucedió hace un par de años, cuando Mark Zuckerberg anunció a través de su página en Facebook que acababa de adquirir Oculus VR, la empresa que dos años antes había conseguido recaudar 10 millones de dólares para desarrollar un nuevo y mejorado visor de RV con muy baja latencia, y que Facebook acabó comprando por 2.000 millones de dólares (Facebook, 2014). En 2016, unas tremendas imágenes de Zuckerberg en la última edición del Mobile World Congress de Barcelona daban la vuelta al mundo. En ellas Zuckerberg aparecía como el único ser humano con el rostro descubierto que miraba el mundo físico con sus propios ojos mientras cruzaba sonriente una sala de conferencias repleta de público enmascarado con visores de RV. Las imágenes tenían un fuerte contenido simbólico. Zuckerberg observando a una multitud de individuos que compartían el espacio y no podían verse directamente los unos a los otros. ¿Los asistentes al acto estaban aislados cada uno encerrado en su propia realidad? ¿Estaban juntos compartiendo una realidad común? ¿Zuckerberg era el único que habitaba en la realidad y por ello ocupaba una posición de privilegio o, precisamente al no estar usando las Oculus Rift en ese momento era el único que estaba fuera de la experiencia compartida del auditorio y habitaba la virtualidad en solitario?.

Cuando en 1989 Jaron Lanier acuñó el binomio “Realidad Virtual” admitió que no le gustaba la palabra “virtual” pero que no había encontrado una expresión mejor para referirse a “algo que existía sólo como una representación electrónica, que no tenía una existencia concreta”, estableciendo así una distinción entre la realidad basada en el mundo físico, que captábamos directamente a través de nuestros sentidos, y la realidad basada en el mundo digital, que para Lanier requería usar “ropa computerizada para sintetizar una realidad compartida” que “recreaba nuestra relación con el mundo físico en un nuevo plano” (Heilbrun, 1989). Para Lanier, por tanto, la RV estaba ligada a tres aspectos fundamentales, el uso de dispositivos (ropa computerizada), la naturaleza compartida de la experiencia y cierta noción de simulación alterada del mundo físico. El tópico de individuos equipados con visores, guantes y trajes para disfrutar, comunicar-se, crear o evadirse inmersos en nuevas realidades sintéticas compartidas saltó rápidamente desde los laboratorios al gran público a través de los medios de comunicación de masas, donde se combinó con anhelos y tomó tintes de promesas sensacionalistas. El ejemplo paradigmático de ello fue la película dirigida por Brett Leonard en 1992, The Lawnmower Man que aunó, entre otros, los tópicos sobre la RV, las drogas, las conexiones en red (internet estaba apunto de entrar en escena masivamente) y el ciberpunk (Gibson había publicado su novela Neuromancer en 1984).

La investigación de Narcís y Roc Parés de la Universidad Pompeu Fabra durante los años 90, produciendo diversas instalaciones interactivas para explorar la especificidad de la RV como medio, les llevó a proponer una definición de RV que se alejaba de la noción de simulación y se centraba en el diálogo que se establecía entre la componente humana y la digital. Propusieron que la RV podía definirse como “la interacción con estímulos digitales generados a tiempo real” (Parés y Parés, 2002), es decir, que la ropa computerizada, la realidad compartida o la simulación no eran cuestiones esenciales, en cambio sí que lo era que los humanos pudiesen establecer un diálogo fluido con el entorno digital, que el sistema respondiese de forma coherente e inmediata.

Milgram et al. (1994), por su parte, propusieron el concepto de Continuo de la Realidad-Virtualidad para referirse al rango que se extendía entre la visualización de la realidad física sin mediación digital (que llamaron simplemente “realidad”) y aquello que era completamente virtual (que llamaron “virtualidad”). En un extremo del Continuo se situaba la Realidad Aumentada (el mundo físico “aumentado” con una capa digital, que en la actualidad podría corresponder a una app como Layar, o a Pokémon GO, por ejemplo) mientras que en el otro extremo se situaba la Virtualidad Aumentada (el mundo virtual “aumentado” mediante objetos o entornos físicos, que en la actualidad podría encajar con proyectos como el del parque temático The Void, por ejemplo, que visitaremos provistos de visores de RV pero cuyas paredes y objetos existirán físicamente y podremos tocar y manejar). El conjunto constituía la Realidad Mixta (RM), donde se superpondrían la capa física y la digital.

Durante la primera década del siglo XXI, a medida que los años pasaban y los avances en este campo se desarrollaban fundamentalmente en entornos académicos, industriales y profesionales, ante la ausencia de productos impactantes de consumo doméstico, expresiones como RV, RA o RM se mantuvieron alejadas del gran público, con la excepción de la industria de los videojuegos, que sí proporcionó entornos virtuales multijugador para ser consumidos en el hogar, como Second Life, los Sims o Minecraft, por ejemplo. Sin embargo, tal y como hemos visto, en los últimos años este panorama ha cambiado substancialmente. Especialmente a raíz de la generalización del uso de dispositivos móviles equipados con cámaras, sensores y conexión de datos, del estallido de las redes sociales, y de la llegada a los hogares de hardware de gran potencia para la generación de gráficos (PCs y consolas de videojuegos con sensores), lo cual ya ha permitido un diálogo suficientemente rico basado en la generación de estímulos digitales a tiempo real en un ámbito doméstico mediado por interfaces físicas no convencionales. Como resultado hemos asistido a una eclosión de apps de RA y de juegos cuya futura generación promete nuevas y excitantes experiencias aprovechando visores como la Oculus Rift y sensores como los Gloveone o el LeapMotion. En paralelo, nuevos dispositivos de RA todavía en proceso de desarrollo como Hololens de Microsoft o Magic Leap, respaldado por Google, nos permiten vislumbrar experiencias donde el mundo físico y el digital podrían mezclarse de forma extremadamente consistente.

Entrenamiento en el laboratorio de RV de la ESA (European Space Agency) Foto de ESA–Stephane Corvaja, 2014, publicada bajo Creative Commons BY 2.0 en Flickr: https://flic.kr/p/opRgSJ

Entrenamiento en el laboratorio de RV de la ESA (European Space Agency) Foto de ESA–Stephane Corvaja, 2014, publicada bajo Creative Commons BY 2.0 en Flickr: https://flic.kr/p/opRgSJ

Dado el protagonismo actual de las redes sociales y que los cánones narrativos y estéticos de los años noventa siguen hasta cierto punto vigentes parece que se está reactivando con fuerza el viejo paradigma de ropa computerizada+realidad compartida+simulación. Debe tenerse en cuenta que la importancia de la RV y la RA no se restringen al entretenimiento. Se vienen aplicando desde hace años para usos industriales, entrenamiento, terapias y servicios diversos. Un uso doméstico masivo podría abaratar el coste de los equipos y facilitar el manejo, posibilitando el acceso a ámbitos de trabajo y a contextos donde hoy por hoy los costes de adquisición y manipulación resultan prohibitivos. Todavía es pronto para saber si esta nueva ola de dispositivos triunfará comercialmente o bien se estrellará como lo hicieron algunos intentos previos como Kinect, Google Glass o Control VR, que o bien no arraigaron y acabaron relegados a un uso artístico o industrial, o bien directamente no consiguieron ni llegar a su lanzamiento.

Pero junto a los artículos tecnoentusiastas y a las reseñas técnicas sobre RV y RA podemos encontrar un murmullo perturbador. Son los ecos de unas polémicas declaraciones de Elon Musk, cofundador y CEO de Tesla Motors (luego hablaremos de Tesla) y cofundador también de PayPal y SpaceX. Musk afirmó hace unos meses que, con casi total probabilidad, la realidad tal y como la conocemos sería una simulación generada por una Inteligencia Artificial (IA) (Schroeder, 2016), o lo que vendría a ser lo mismo, nos devolvió al oscuro mundo de Matrix. Cabe decir que no es una idea original de Musk. El filósofo Nick Bostrom ya propuso en 2003 el “argumento de la simulación” planteando en forma de trilema la hipótesis de que la realidad podría ser una simulación informática (Bostrom, 2003). En cierto modo, la equiparación de realidad a simulación, a ficción o a ilusión, se remonta a la antigüedad. El pensamiento escéptico y el solipsismo en la Grecia clásica, o el budismo zen en Asia, ya lo habían planteado. En el Renacimiento, Descartes se enfrentó a esta cuestión y la resolvió con un “pienso, luego existo”, es decir, al menos sé que existe mi propia mente.

Volviendo a las declaraciones de Musk, tal vez lo más relevante sea que al afirmar que es altamente probable que lo que conocemos como realidad sea de hecho una simulación, nos esté proporcionando una pista de hacia dónde se mueven los tiempos y nos ayude a situarnos. En primer lugar sus palabras coinciden con el nuevo interés que despiertan la RV y RA en los medios, fruto de la necesidad de ciertas empresas de alimentar expectativas a cerca de la comercialización de sus productos, que a su vez vienen acompañadas de la convergencia de al menos tres situaciones novedosas. La primera de ellas es que, a pesar del glamour que rodea el lanzamiento de ciertos gadgets como las Oculus Rift de Facebook o el Magic Leap y el Daydream por el que ha apostado Google, estos dispositivos pueden considerarse toscos estados intermedios comparados con las posibilidades a largo plazo que plantea la investigación en interfaces. Con el objetivo de paliar las discapacidades sensoriales o motoras que acompañan algunas dolencias, está en marcha la búsqueda de una forma de relación más directa y con menos intermediación física entre los sistemas digitales y la mente humana, como por ejemplo las lentes de contacto de RA de iOptik, implantes cerebrales para controlar dispositivos digitales directamente mediante la actividad cerebral (Sample, 2012), o bien la combinación de resonancia magnética y de modelos numéricos para mostrar información visual extraída de nuestro cerebro (Anwar, 2011). Tal vez el ejemplo más extremo de esta búsqueda sea el “encaje neuronal”, una forma de interfaz cerebro-máquina destinada a mejorar las terapias de las enfermedades neurodegenerativas que resulta completamente distinta a las que conocíamos hasta ahora. El nombre procede, una vez más, de una novela de ciencia ficción que se asoma a la realidad, en éste caso Culture, que Ian M. Banks publicó en 1994 (Newitz, 2015).

El propio Musk se refirió al “encaje neuronal” planteándolo como la única posibilidad para mejorar nuestra capacidad de interacción con lo digital y evitar así que acabásemos siendo poco más que mascotas de una inteligencia artificial. Los resultados de un estudio reciente publicado en Nature revelan que el “encaje neuronal” ya está disponible, aunque todavía en un estado de desarrollo inicial (Liu, 2015). Se trata de una técnica basada en nanotecnología que consiste en inyectar en el torrente sanguíneo una red microscópica que se acopla al tejido neuronal y que permite, al menos de forma experimental en ratones, monitorizar la actividad cerebral de un modo mucho más directo que hasta ahora y recíprocamente modular algunas de sus dinámicas. La interfaz directa humano-digital podría estar empezando justo ahí y de ser así pulverizaría el concepto de interfaz física tal y como lo conocemos.

Por otro lado, en 2014, el mismo año que Facebook adquirió Oculus VR, Google invirtió 500 millones de dólares en el proyecto Magic Leap, un sistema de RA que compite directamente con las Hololens de Microsoft. Simultáneamente, Google compró DeepMind por otros 500 millones de dólares, empresa que ha desarrollado una IA, un sistema que es capaz de aprender a realizar tareas para las que no ha sido específicamente programado (Efrati, 2014). En 2016 Google ha anunciado que libera la librería TensorFlow, derivada de su investigación en IA, para facilitar el desarrollo a terceros de aplicaciones basadas en Machine Learning y el mismo año ha anunciado la salida de su propio sistema de RV, el Daydream. Algunos científicos consideran que la combinación de Big Data, internet de las cosas (IoT) y redes neuronales podría generar una “singularidad”, es decir, que la vasta e ingente red de datos que generan nuestros artefactos y nuestra propia huella digital, en la que estamos inmersos, adquiera algún día autoconciencia. Incluso se ha llegado a aventurar la fecha en que eso podría suceder. Por ahora parece que el nacimiento se espera para el 2040, pero la previsión va cambiando con el tiempo y según a quien se pregunte. Creamos o no en la posibilidad de la singularidad, deberíamos ir tomando nota del anuncio hecho por parte de Google este mismo año comunicando que habría creado un framework que permitiría a un “’operador humano’ interrumpir repetidamente y de forma segura una IA, con la seguridad de que la IA no aprenda cómo prevenir o inducir las interrupciones” (Shead, 2016). Si una IA se ocupa de gestionar aspectos sensibles de nuestra realidad, ¿quién o qué debería encargarse del botón de la desconexión, y cómo decidirlo?.

Recientemente, ante el anuncio de Tesla de lanzar al mercado en todos sus nuevos vehículos el piloto automático con autonomía de nivel 5 (la interacción con el conductor ya no es requerida) (Geuss, 2016), las autoridades alemanas han denegado el uso del término “Autopilot” empleado por Tesla para su tecnología de conducción automática, por considerar que podía confundir a los consumidores, dando a entender así que la tecnología de Tesla no seria equivalente al piloto automático de los aviones comerciales, dado que no está destinado a substituir al conductor si no a asistirlo (Davies, 2016). Sin duda en esta decisión ha pesado el trágico accidente que hace unos meses ocasionó una víctima mortal durante una de las pruebas de conducción automática de Tesla, aunque desde entonces, el sistema ha sido mejorado hasta conseguir la máxima autonomía, según afirma la propia compañía. Cabe recordar que el escenario de una IA al mando de procesos críticos que muestra síntomas de funcionamiento anómalo es un tema recurrente clásico de la ciencia ficción y puede encontrarse en I robot de Asimov, el entrañable Hall 9000 de la película 2001: A Space Odissey de Kubrick, o Terminator, entre muchos otros. Se diría que una parte de la humanidad no confía demasiado en las bondades de una IA o en dejar en manos de algoritmos determinadas decisiones. Las implicaciones éticas, políticas, legales y económicas son motivo de debate, por ejemplo en el caso de la gestión de posibles accidentes en situaciones de conducción automática (Kirkpatrick, 2016) o en el uso militar de robots.

Finalmente, un tercer factor sería el contexto en el que todos estos desarrollos tienen lugar. La imagen de una sala repleta de personas equipadas con Oculus Rift, suponemos que atentas a cierta forma de realidad compartida proporcionada por el entorno corporativo de Facebook pero ajenas a sus vecinos de asiento, encaja como un guante con la máxima “la sociedad no existe, sólo existen los individuos” que Margaret Thatcher popularizó en los años 80 del siglo XX y que ha moldeado la organización social y ha condicionando la vida de millones de personas desde entonces. Por otro lado no es una escena tan distinta a la que podemos observar en cualquier sala de espera o vagón de metro, viendo a todo el mundo con la mirada fija en la pantalla táctil de su dispositivo móvil e ignorando a sus vecinos de asiento. Recientemente Chris Taylor criticaba las declaraciones de Musk recordando el “pienso, luego existo” de Descartes y concluyendo que “si las otras mentes no existen entonces tanto da, pero si efectivamente existen, entonces tenemos la obligación moral de tratar a esas mentes del mismo modo que nos gustaría que tratasen la nuestra”. Preocuparse por los demás, razonaba, nos hace sentir mejor, pero pensar que el mundo no existe nos impide preocuparnos por los sin techo, por la pobreza o por las hambrunas, dado que esa gente posiblemente ni tan siquiera está ahí. Y concluía que valía la pena “intentar aliviar su sufrimiento en lugar de preocuparnos por la posibilidad de una inteligencia artificial que ni siquiera sabemos si podremos llegar a construir” (Taylor, 2016).

Visor Razer OSVR, equipado con LeapMotion para detectar el movimiento de las manos Foto de Maurizio Pesce, 2015, publicada bajo Creative Commons BY 2.0 en Flickr: https://flic.kr/p/qKaEyj

Visor Razer OSVR, equipado con LeapMotion para detectar el movimiento de las manos Foto de Maurizio Pesce, 2015, publicada bajo Creative Commons BY 2.0 en Flickr: https://flic.kr/p/qKaEyj

Posiblemente, que no acabemos en Matrix no dependería tanto de que el “encaje neuronal” amplifique nuestras capacidades de interactuar con lo digital, sino más bien de algo mucho más elemental y añejo. Básicamente de tener presente que los humanos somos constructores de artefactos culturales (Hine, 2000) y de asumir que los aspectos materiales y físicos, subyacentes al uso y desarrollo de una tecnología, están íntimamente enredados con los aspectos sociales (Hodder, 2012). Tal y como la gestación de la propia internet nos muestra, la construcción de las infraestructuras tecnológicas está sujeta a un cierto proyecto social al que damos forma a partir de pequeños actos cotidianos que pueden desembocar en dinámicas imprevisibles a largo plazo (Abbate, 1999). Tal vez estemos cerca del advenimiento de una singularidad o tal vez no llegue nunca a materializarse tal cosa, pero si finalmente la nueva ola de la RV y de la RA triunfa, si los interfaces se vuelven más sutiles a largo plazo y se acercan a algo, aunque sea remotamente cercano, al “encaje neuronal”, y si los mismos actores que ya atesoran actualmente nuestro rastro en la red pueden procesarlo mediante una o diversas IA para aprender de nuestros actos, anticiparse a la manifestación de nuestros deseos y proponernos sofisticadas realidades a medida, entonces nos enfrentaremos al reto de gestionar herramientas con un potencial de monitorización y control social de un poder extremo difícil de imaginar hoy en día. En el corto plazo haríamos bien en ser exigentes y críticos con el desarrollo de nuestro entorno digital actual. Como en tantos otros procesos tecnológicos, especialmente en el software y en el hardware, esta actitud vigilante debería basarse en fomentar el empoderamiento tecnológico de las comunidades, para que la tecnología responda a las necesidades de la ciudadanía, y para conseguirlo parece indispensable la implementación de prácticas colectivas de capacitación, que favorezcan la difusión y generación de conocimiento abierto, libre y distribuido, basado en redes que sean neutrales, en Open Data y estándares abiertos. Prácticas que consideren también el valor de uso, no sólo el valor de cambio, entre ellas el P2P o la Economía Directa (Las Índias, 2016) y que otorguen a la ciudadanía un papel central, por ejemplo la IoT de The Things Network. En este sentido, que la popularización de la RV y RA, y que el desarrollo de ciertas formas poderosas de IA, se basen en el impulso de los buques insignia de la llamada netarquía, como Facebook o Google, no nos permite vislumbrar un futuro muy tranquilizador, a lo sumo un Mundo Feliz, dado que se trata de organizaciones que gracias a su capacidad de captar capital y de restringir y redirigir el flujo del conocimiento ocupan posiciones estratégicas desde las cuales es previsible que pretendan rentabilizar sus inversiones millonarias. Para construir alternativas menos dependientes de las lógicas de mercado monopolistas, más democráticas e interesadas en neutralizar riesgos de exclusión y de control social, tal vez nos haga falta practicar un sano escepticismo respecto a los discursos corporativos tecnoentusiastas y tejer más redes de empatía y complicidad entre iguales, des de las cuales dar forma a nuestros propios sueños de realidad.

Documentación:

Abbate, J. (1999). Inventing the Internet. Cambridge: The MIT Press.

Anwar, Y. (2011). “Scientists use brain imaging to reveal the movies in our mind”. Berkeley News. [Documento en línea][Último acceso 4-6-2016]

http://news.berkeley.edu/2011/09/22/brain-movies/

Bostrom,  N. (2003). “Are You Living in a Simulation?”. Philosophical Quarterly (Vol. 53, No. 211, 243-255). [Último acceso 7-6-2016]

http://www.simulation-argument.com/simulation.html

“Facebook to Acquire Oculus”. Facebook Newsroom. Facebook. (March 25, 2014). [Documento en línea][Último acceso 7-6-2016]

http://newsroom.fb.com/news/2014/03/facebook-to-acquire-oculus/

Davies, A. (2016). Germany Says ‘Nein’ to Tesla Calling Its Tech ‘Autopilot’. Wired. [Documento en línea][Último acceso 18-10-2016]

https://www.wired.com/2016/10/germany-tesla-autopilot/?mbid=social_twitter

Efracti, A. (2014). “Google beats Facebook for Acquisition of DeepMind Technologies”. The Information. [Documento en línea][Último acceso 7-6-2016]

https://www.theinformation.com/Google-beat-Facebook-For-DeepMind-Creates-Ethics-Board

Geuss, M. (2016). “Teslas will now be sold with enhanced hardware suite for full autonomy.” Arsthecnica. [Documento en línea][Último acceso 20-10-2016]

http://arstechnica.com/cars/2016/10/tesla-says-all-its-cars-will-ship-with-hardware-for-level-5-autonomy/

Heilbrun, A. (1989). “An interview with Jaron Lanier”. Whole Earth Review Magazine (fall 1989, 108-119). [Último acceso 5-6-2016]

http://kk.org/mt-files/writings/virtual_lanier.pdf

Hine, C. (2000). Virtual Ethnography. London: SAGE Publications.

Hodder, I. (2012). Entangled: An Archaeology of the Relationships between

Humans and Things. Oxford: Wiley-Blackwell.

Kirkpatrick, J. (2016). The Ethical Quandary of Self-Driving Cars. Slate.

[Documento en línea][Último acceso 20-10-2016]

http://www.slate.com/articles/technology/future_tense/2016/06/self_driving_cars_crash_optimization_algorithms_offer_an_ethical_quandary.html

Lang, B. (2015). “CES 2015: Razer Announces $199 ‘Hacker Dev Kit’ VR Headset as Part of OSVR Initiative”. RoadtoVR. [Documento en línea][Último acceso 7-6-2016]

http://www.roadtovr.com/razer-hacker-dev-kit-osvr-sensics/

Las Índias (2016). Manifiesto comunero. [Documento en línea][Último acceso 7-6-2016]

https://lasindias.com/manifiesto-comunero

Liu, J.; Fu, T-M.; Cheng, Z.; Hong, G.; Zhou, T.; Jin, L.; Duvvuri, M.; Jiang, Z.; Kruskal, P.; Xie, C.; Suo Z.; Fang Y.; Lieber, C. M. (2015). “Syringe-injectable electronics”. Nature Nanotechnology (10, 629–636). doi:10.1038/nnano.2015.115. [Último acceso 4-6-2016].

http://www.nature.com/nnano/journal/v10/n7/pdf/nnano.2015.115.pdf

Milgram, P.; Takemura, H. ; Utsumi, A.; Kishino, F. (1994). “Augmented Reality: A class of displays on the reality-virtuality continuum”. Proceedings of Telemanipulator and Telepresence Technologies. (2351–34). [Último acceso 5-6-2016]

http://etclab.mie.utoronto.ca/publication/1994/Milgram_Takemura_SPIE1994.pdf

Newitz, A. (2015). “Scientists Just Invented the Neural Lace”. Guizmodo. [Documento en línea][Último acceso 4-6-2016]

http://gizmodo.com/scientists-just-invented-the-neural-lace-1711540938

Parés, N.; Parés, R. (2002). Realidad Virtual. Barcelona: GMMD, Fundació

Politècnica de Catalunya, Fundació per a la Universitat Oberta de Catalunya. [Documento en línea][Último acceso 4-6-2016]

http://materials.cv.uoc.edu/continguts/PID_00150715/

Sample, I. (2012). “Brain implant allows paralysed woman to control a robot with her thoughts”. The Guardian. [Documento en línea][Último acceso 4-6-2016]

http://www.theguardian.com/science/video/2012/may/16/mind-controlled-robotic-arm-video

Schroeder, S. (2016). “Elon Musk: There’s a ‘one in billions’ chance our reality is not a simulation”. Mashable. [Documento en línea] [Último acceso 4-6-2016]

http://mashable.com/2016/06/02/elon-musk-simulated-reality/#Xfu3TBItrsqW

Shead, S. (2016). “Google has developed a ‘big red button’ that can be used to interrupt artificial intelligence and stop it from causing harm”. Business Insider UK. [Documento en línea] [Último acceso 7-6-2015]

http://uk.businessinsider.com/google-deepmind-develops-a-big-red-button-to-stop-dangerous-ais-causing-harm-2016-6

Taylor, C. (2016). “Elon Musk basically thinks we’re living in ‘The Sims.’ Here’s why that’s wrong and dangerous”. Mashable. [Documento en línea] [Último acceso 4-6-2016]

http://mashable.com/2016/06/02/musk-computer-simulation/#.MjtSxG388qd

Acerca del autor

Jaume Ferrer Rosera (@jaumefr) es doctor en Sociedad de la Información y del Conocimiento. Miembro del grupo de investigación Mediaccions y cofundador del colectivo artístico Taller d'Intangibles (TAG). Profesor de gráfica interactiva y diseño de interacción en EDRA. Colaborador docente de Realidad Virtual en el Grado de Multimedia de la UOC. Investiga la relación entre los seres humanos y la tecnología digital desde una aproximación etnográfica basada en su propias prácticas de making y de tinkering.

Deja un comentario