¿De qué hablamos cuando nos referimos a la Realidad Virtual?
Existen demasiados términos que hacen referencia a esta disciplina. Todo el mundo se aventura a utilizarlos, frecuentemente sin demasiado rigor, muy por encima y con poca concreción. Se escuchan cosas como Realidad Artificial, Realidad Aumentada, Ciberespacio, Presencia Virtual, Telepresencia…Demasiadas palabras y pocos matices.
La Realidad Virtual, de ahora en adelante RV, es un término contradictorio en sí mismo pues hace referencia a todo aquello que es verdadero, pues es real, pero a la vez produce un efecto no presente, aparente, ya que es virtual. Aquí nos referiremos a una RV en la que intentamos recrear sensaciones fieles a las que ya conocemos, por experiencias sensoriales que hemos vivido, en entornos sintéticos muy inmersivos. Realmente no deberíamos discernir entre lo que es real y lo que se ha generado sintéticamente mediante, por ejemplo, un ordenador.
Una de las primeras experiencias “virtuales” conocidas fue “Sensorama“, un sistema presentado en el año 1956 que pretendía ser un centro de ocio y entretenimiento con el que viajar en bicicleta a lo largo y ancho de algunas de las calles más concurridas de Manhattan. Audiovisuales presentados en 3D, sonido estéreo mediante dos altavoces, vibraciones, sensación de viento e incluso olores eran algunas de las herramientas empleadas para conseguir el grado de inmersión necesario.
Como muchos otros campos de estudio, el de la RV ha requerido tradicionalmente de fuertes inversiones iniciales, que ha encontrado en el terreno militar. Hablamos de la continuidad de los sistemas de RV en los simuladores de vuelo diseñados en los años 60 para entrenar a pilotos estadounidenses y británicos en toda clase de inclemencias. Los costes disminuyen mucho pues no se requiere de ningún avión real (se dice que no existe nada más caro que un avión parado) y se puede poner a prueba al piloto en toda clase de situaciones a las que con suerte jamás tendrá que enfrentarse (vientos huracanados, fallos de testigos luminosos en el panel, ráfagas laterales de bandadas de pájaros, tormentas eléctricas, nieblas persistentes, etc.). Hoy en día estos simuladores forman parte de la colección de videojuegos que reside en muchas casas, y es que la tecnología es más barata y accesible que antaño.
Así pues, se trata de que el usuario perciba información de manera natural, sintiéndose como en una localización concreta realmente. Se trata de la telepresencia o sensación de inmersión, concepto por cierto muy difícil de medir por lo subjetivo de la sensación. No existe una métrica clara al respecto.
Los “ingredientes” para una buena sensación de telepresencia son de sentido común. ¿Por qué? Lo necesario es alimentar a nuestros sentidos de forma coherente: audio, video, tacto y sensaciones de olfato y gusto. Pero no son sensaciones fáciles de generar de manera sintética (problemas con la tecnología, precios desorbitados o rechazos por parte del gran público son algunas de las causas…). Y aunque lo fueran, no se consigue “engañar” adecuadamente a nuestro sistema sensorial. Éste es extremadamente rico y sensible, especialmente el auditivo, y se da cuenta de todas las imperfecciones que nosotros generamos al intentar emular la realidad.
Existe un efecto llamado la “fiesta de cocktail” que todos hemos percibido (y ejecutado), en más de una ocasión. Nos encontramos en una fiesta o reunión llena de gentes de todas clases que mantienen multitud de conversaciones en paralelo. Seguro que todos somos capaces de recordar que hicimos lo siguiente: sintonizamos en cada momento con aquella conversación que nos interesaba escuchar, haciendo pasar al resto de sonidos a un segundo plano, y siguiéndola perfectamente a no ser que el volumen general creciera demasiado. En el momento en que mirábamos hacia otra parte y deseábamos escuchar otra cosa, lo hacíamos inconscientemente, ajustando de nuevo nuestros “filtros internos”. Éste es un grandioso ejemplo de lo perfecto de nuestro sistema sensorial y de lo difícil, por tanto, de someterlo a engaño.
Los profesionales de la RV pretendemos crear ambientes virtuales plausibles en lo visual, en lo auditivo y en lo referente al tacto. Queda más lejos trabajar el olfato, aunque con el tiempo todo se andará, sin duda. También deberíamos ser físicamente correctos y asegurar ciertas precisiones de trabajo, cierto rigor, especialmente en aplicaciones de tipo médico por ejemplo.
Todos convivimos con la RV desde hace muchos años. Un clásico ejemplo de telepresencia y de sensación de inmersión es el videojuego de ordenador o de consola, capaz de tenernos pegados a la pantalla horas y horas pilotando un coche de carreras o luchando incansables contra criaturas endemoniadas de otra galaxia. Éste alimenta a las orejas y a los ojos y, cómo no, al tacto mediante periféricos que cada vez son de interacción más natural. Se intenta acercar el juego a la persona y no al revés, como hace 20 años. Así pues todos sabemos bastante del funcionamiento de esta disciplina. Lo que quizás conocemos menos son otras aplicaciones en las que también es plenamente funcional y operativa, además de muy útil.
Aplicaciones
No es difícil hacerse una idea de las aplicaciones disponibles si se intenta pensar en todo aquello que es susceptible de simularse. Todos conocemos el término prototipo, sabemos que suele ser algo extremadamente caro (pues está antes de la cadena final de producción) y entendemos cada vez más que puede abaratarse si se diseña, e incluso prueba, mediante un ordenador.
De hecho, es común ver la construcción de aviones, transbordadores espaciales, coches y motocicletas mediante un ordenador y cómo se les hacen las consecuentes pruebas de motor, aceleraciones, resistencia al viento y choques, empleando ese mismo sistema.
El cine y las series de animación también se han beneficiado enormemente de las posibilidades de la RV. Son continuas, y cada vez más frecuentes, las escenas elaboradas digitalmente, como los dinosaurios de Parque Jurásico; las escenas de aviones de Pearl Harbour; los viajes en escoba de Harry Potter o el simio gigante del último remake de King Kong, entre muchas otras. Y es que en la actualidad sería complicado encontrar una sola película sin efectos especiales o retoques realizados mediante ordenador, haciendo uso de técnicas que, en su origen, pertenecen a la RV. Estos ejemplos carecen de interacción por parte del usuario final, aunque sí la tienen a veces por parte de los actores, que se enfundan trajes repletos de sensores para generar los movimientos de algunos personajes sintéticos (por ejemplo la genial actuación de Andy Serkins para dar vida al personaje Gollum en El Señor de los Anillos, o Tom Hanks y sus múltiples registros “digitales” en Polar Express).
Otras aplicaciones no tan conocidas pero de gran importancia son la creación de nuevos tejidos y su utilización para el diseño de trajes y ropas que ondean sobre maniquíes virtuales en pasarelas generadas por ordenador (los trabajos de Baraff y Witkin); el uso de humanos virtuales para ensayar nuevas técnicas de recuperación de huesos y músculos en fisioterapia (simulaciones del científico Ron Fedkiw); el análisis y la simulación de efectos físicos con fluidos, gases y fuego, muy aplicables a la docencia de esta disciplina (también Fedkiw); los chats 3D como centro de ocio y de esparcimiento, o los simuladores de conducción de cabinas de metro que se realizan desde empresas de índole nacional (Indra) e internacional (Transurb), además de la ayuda psicológica que puede prestarse a niños y niñas con problemas de sociabilidad cuando se les observa actuar dentro de una clase virtual con compañeros “sintéticos”, o se les enfrenta a problemas de agorafobia y/o claustrofobia saliendo a una calle virtual, o cogiendo un ascensor “de mentira” (universidades del sur de California y de Castellón respectivamente).
La RV es compleja en sí misma, pues necesita del dominio de otras muchas otras disciplinas. En esencia, una aplicación se compondrá de contenidos (casi siempre tridimensionales y con sus correspondientes atributos de posición, orientación, color, textura…), actores (como una simple cámara que nos muestra un entorno virtual en primera persona) y leyes dinámicas que regirán la interacción entre actores y contenidos. Estas leyes pueden inventarse de manera que experimentemos nuevas condiciones de trabajo o inventemos situaciones nuevas, quizás incluso imposibles, dentro de nuestro planeta.
Las aplicaciones deberían proveer al usuario de interfaces de control naturales. Inicialmente se trabajó mucho con cascos y guantes aunque, especialmente los primeros, no han progresado mucho. Se trata de periféricos tradicionalmente pesados e incómodos, que responden de manera distinta según el usuario. ¿En qué sentido? Sobretodo en lo visual, pues algunos se cansan rápidamente y presentan dolor de ojos y otros no son capaces de percibir la sensación de profundidad que se pretende. Me refiero al efecto Imax 3D, muy inmersivo, pero no igual de efectivo para todas las personas, y que puede diferir en una misma según en que localidad se siente. Volviendo a los cascos, algunas personas manifiestan su “rechazo” a utilizarlos en un salón recreativo de videojuegos pues “no saben quién se lo ha puesto antes”…Un gran avance tecnológico poco admitido por el gran público debido a causas de higiene. Sin duda el mercado puede ser muy desconcertante…
Por suerte la evolución es imparable y se estudian nuevas fórmulas. Se puede poner el ejemplo de la compañía Nintendo que está innovando considerablemente con las nuevas propuestas de interfaz natural que presenta su consola DS así como la futura Revolution. Para esta última aseguran diversión para TODA la familia, abuelos incluidos, pues huyen definitivamente de la palanca de mando (joystick o pad) para centrarse en el movimiento natural del cuerpo. En este sentido también existen propuestas muy interesantes desde Sony, con su Eye Toy para la consola Playstation 2.
En todo caso, las aplicaciones necesitan ser capaces de mostrar ingentes cantidades de información de forma veraz, clara y rápida. Ésta debería presentarse de manera natural, huyendo de los movimientos raros o estrambóticos en las animaciones, intentando que el usuario pueda ver parte de su cuerpo virtual dentro del entorno sintético, evitando demasiado contenido puramente estático, mostrando altas resoluciones, grandes campos visuales, localizando el audio en 3D (todos conocemos los sistemas Surround a estas alturas)…
Los factores más críticos dependen de la tarea en concreto, pero suelen identificarse como de rendimiento, humanos y de ingeniería. Entre los primeros podemos encontrar la mala calidad de algunas imágenes, el parpadeo, el uso de sensores y periféricos lentos que no son capaces de seguirnos en “tiempo real” (las cosas ocurren en el entorno virtual en el mismo instante en que el usuario desea propiciarlas, moviéndose por ejemplo); los segundos se refieren a necesidades de contraste para una usuaria concreta, a bajas resoluciones para las imágenes, o a problemas de cansancio visual; los terceros son el peso de los periféricos, ya de por sí antinaturales, la distancia de las pantallas a las pupilas o las variaciones en la percepción de la profundidad 3D.
La Telemedicina: aportación de la RV al diagnóstico médico por imagen
La RV como tecnología es especialmente relevante en el campo de la medicina. Y es que se posiciona como una clara herramienta de ayuda a la preparación de nuevos y nuevas profesionales, además de dar soporte al diagnóstico y a la intervención de pacientes.
Se investigan y emplean sistemas de RV para cirugías de todo tipo como la cardiaca, renal, pulmonar, cerebral, de huesos o de próstata, entre muchísimas otras. Y es que una mejora en el diagnóstico de un paciente o en la eficiencia de las intervenciones será siempre bienvenida.
Para centrar el tema, uno de los trabajos en que se pone empeño en la actualidad es la investigación de nuevas técnicas que permitan pasar de imágenes 2D (ecografías, rayos X, tomografías o resonancias magnéticas, entre otras) a órganos reconstruidos en 3D de manera automática. Estos órganos son entonces susceptibles de ser manipulados en tiempo real por uno o varios especialistas. De hecho ya son muy populares las ecografías 3D que se fundamentan en este tipo de algoritmos.
La aplicación de simulación y RV permite voltear, seccionar e incluso viajar por el interior del órgano sintético, como si de un videojuego se tratara. Imaginemos por un momento a una profesional de la medicina a la que se brinda la posibilidad de ver en 3D una versión ficticia del ventrículo izquierdo del corazón de un paciente al que operará en unas horas. Podrá ensayar en ese ventrículo virtual la operación, prever complicaciones, simular distintas técnicas de cirugía, y analizarlo desde todos los puntos de vista, deduciendo datos diagnósticos relevantes.
Además la interacción puede realizarse empleando periféricos que imitan al instrumental médico. Es el caso de las aplicaciones que utilizan un brazo robot de tipo Phantom. Gracias a este periférico pueden simularse operaciones de cirugía mediante laparoscopia a la par que ofrecer al usuario (quizás una estudiante novel que está haciendo prácticas) la sensación de que “toca” y “percibe al tacto” aquello que está manipulando en el mundo virtual. Eso sí, es un periférico caro…
A mediados de los años 80 se inician las investigaciones que persiguen deformar un cierto modelo geométrico y restringirlo de manera que recupere la forma y el movimiento de un objeto flexible 3D, a partir de imágenes diversas (a este proceso se le denomina de segmentación). Terzopoulos, Witkin y Kass definieron este modelo como un cuerpo elástico sujeto a las leyes de la mecánica continua [1].
Esta idea evolucionó de forma natural, complicando el modelo hasta obtener una superficie supercuádrica deformable. Se trata de superficies que toman la forma del órgano en cuestión, según parámetros matemáticos que se obtienen a partir de las imágenes. Este paradigma fue propuesto por Solina y Bajcsy [2]. Terzopoulos y Metaxas [3] continuaron trabajando hasta generar supercuádricas capaces de deformarse local (para obtener detalles ínfimos que resaltan las particularidades de cada paciente) y globalmente (en el caso de características más generales del órgano). En este caso el usuario podía interactuar en tiempo real con el modelo, gracias al ratón. De esta forma se posibilitaba que el médico observara en tres dimensiones el órgano enfermo sin necesidad de practicar ninguna incisión en el paciente.
Existen retos aún mayores, como en el caso de partir de imágenes médicas en las que faltan datos del paciente. Esto ocurre cuando el equipo funciona mal durante la captación por culpa de fallos eléctricos, se usa incorrectamente o los órganos circundantes influyentes sobre el de interés, provocando solapamientos y “cegándonos” parcialmente. Weiss [4] procuró las primeras reconstrucciones a partir de datos incompletos. Para estas simulaciones aplicó un modelo de física básica muy simple basado en masas y muelles. Podemos disponer diversas partículas (vértices en su vertiente geométrica) e interconectarlas entre ellas con muelles (o aristas si las imaginamos como costados de un polígono), más o menos rígidos. Esta estructura “elástica” se adapta a la zona de la imagen que se desee. En un caso, por ejemplo, se segmentaron las piezas de la dentadura de un paciente.
Para otras disciplinas médicas como la cirugía de columna, de ventrículo izquierdo de corazón o del sistema vascular cerebral, McInerney y Terzopoulos emplearon una tecnología de nombre superficies T (o T-surfaces) [5]. Se parte de imágenes médicas de Tomografía y Resonancia Magnética para acabar mostrando los distintos órganos en 3D al especialista. De hecho Terzopoulos evolucionó el paradigma llegando a proponer una novedosa aportación basada en un organismo virtual deformable [6] cuya misión es la de segmentar imágenes médicas. Gracias a la IA (Inteligencia Artificial), el organismo se deforma de forma autónoma hasta adaptarse al órgano a recuperar. Dispone de sensores, a modo de ojos sintéticos, que le permiten distinguir entre los diferentes niveles de gris o colores que forman los órganos y estructuras de interés.
De los contornos y las superficies pasamos a los “cubitos” de Bro-Nielsen [7]. Éste dio un salto cualitativo importante presentando las familias de redes y cubos activos (active nets, active cubes). La ventaja de las redes (bidimensionales) frente a los contornos (unidimensionales) es la gran cantidad de nodos internos de las primeras, que se adaptan a la imagen por el interior, además de por los bordes. Esta metodología procuró interesantes resultados en operaciones de cirugía simuladas dentro del contexto de la medicina ósea.
Cotin, Delingette y Ayache [8-9] consiguieron implementar un sistema de simulación de la deformación elástica que sufren los tejidos blandos, aplicable en simulación de cirugía y planificación de operaciones. En su caso utilizaron esta tecnología para el diagnóstico de patologías hepáticas a partir de imágenes tomográficas. Ésta fue una de las primeras aportaciones notables en materia de simulación virtual aplicada al comportamiento de los tejidos abdominales.
Los científicos Koch y Gross [10] implementaron un simulador de cirugía facial a partir de un esquema que en matemática se conoce como de elementos finitos (en inglés el acrónimo es FEM). Éste empleaba una herramienta de modelado 3D convencional, por lo que pudieron minimizar notablemente el tiempo de desarrollo.
Para terminar con este repaso, mencionar otros ejemplos notables como los de Bardinet, Cohen y Ayache [11] para la reconstrucción de las superficies interna y externa del ventrículo izquierdo del corazón de forma simultánea; Rückert [12] que segmentó y pudo seguir el movimiento del corazón a partir de resonancias 2D y 3D; Bonciu, Weber and Nguyen [13] con su novedoso sistema de adquisición de imágenes utilizando un ecógrafo de ultrasonidos que rota a gran velocidad; Sachse [14] y su modelo electromecánico del ventrículo izquierdo y demás herramientas de segmentación en imagen médica de tantos y tantos investigadores (Cardot, Neumann, Morales, Radeva, Navazo, etc.).
La RV ya es cotidiana y cada vez está más cerca de todos nosotros. No sólo en cuanto a lo lúdico, que nos ocupa desde hace décadas, sino también en cuanto a lo social y laboral. Dejemos pues de tener miedo de algo que ya manejamos y conocemos más de lo que pensamos.
Referencias a artículos de investigación
- [1] M. Kass, A. Witkin, and D. Terzopoulos, “Constraints on deformable models: Recovering 3D shape and nongrid motion”, Artificial Intelligence, 36 (1988), pp. 91–123.
- [2] F. Solina and R. Bajcsy. “Recovery of parametric models from range images: The case for superquadrics with global deformations”. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1990.
- [3] D. Terzopoulos and D. Metaxas, “Dynamic 3-D Models with Local and Global Deformations: Deformable Superquadrics”, IEEE Trans. Pattern Analysis and Machine Intelligence, Vol. 13, No.7, pp. 703-714, 1991.
- [4] I. Weiss. “Shape Reconstruction on a Varying Mesh”. IEEE Trans. on patt. Anal. Machine Intell., vol. 12, no. 4, pp.345-361, 1990.
- [5] T. McInerney, D. Terzopoulos. “Topologically adaptable snakes”, Proc. Fifth International Conf. on Computer Vision (ICCV’95), Cambridge, MA, June, 1995, 840-845.
- [6] G. Hamarneh, T. McInerney, and D. Terzopoulos, “Deformable Organisms for Automatic Medical Image Analysis”, to appear in Medical Image Computing and Computer-Assisted Intervention, MICCAI 2000, Utrecht, The Netherlands, 14-17 October 2001.
- [7] M. Bro-Nielsen: “Active Nets and Cubes”, IMM Tech. Rep 94-13, 1994.
- [8] S. Cotin, H. Delingette, J-M. Clément, V. Tassetti, J. Marescaux, and N. Ayache. “Geometric and Physical Representations for a Simulator of Hepatic Surgery”. In Medecine Meets Virtual Reality IV, Interactive Technology and the New Paradigm for He althcare, pages 139-151, January 1996. IOS Press.
- [9] S. Cotin, H. Delingette and N. Ayache, “Real Time Elastic Deformations of Soft Tissues for Surgery Simulation”, IEEE Transactions on Visualization and Computer Graphics, Vol. 5, No. 1, January-March, 1999, pp. 62-73.
- [10] R. M. Koch, M. H. Gross, F. R. Carls, D. F. von Bren, G. Frankhauser, and Y. I. H. Parish, “Simulating Facial Surgery Using Finite Element Models”, Proceeding of the 23 Annual Conference on Computer Graphics, New Orleans, LA USA, August 4-9, 1996, pp 421-428.
- [11] E. Bardinet, L. D. Cohen and N. Ayache. “Analyzing the deformation of the left ventricle of the heart with a parametric deformable model”, INRIA Sophia Antipolis, France, technical report number RR-2797, February 1996.
- [12] D. Rueckert. “Segmentation and Tracking in cardiovascular MR Images using Geometrically Deformable Models and Templates”. PhD thesis, Imperial College of Science, Technology and Medicine, University of London, London, 1997.
- [13] C. Bonciu, R. Weber and C. Léger. “4D reconstruction of the left ventricle during a single heart beat from ultrasound imaging”. Image and Vision Computing, Vol. 19 (6) (2001) pp. 401-412.
- [14] F.B. Sachse, G. Seemann and C.D. Werner. “Modeling of Electro-Mechanics In The Left Ventricle”. IEEE Computers in Cardiology 2002. September 22-25, 2002. Memphis, Tennessee, USA.
Cita recomendada: GARCÍA PAÑELLA, Oscar. La Realidad Virtual a diario: un instrumento más que operativo y de uso muy común. Mosaic [en línea], enero 2006, no. 44. ISSN: 1696-3296. DOI: https://doi.org/10.7238/m.n44.0601.