Universitat Oberta de Catalunya

José Manuel Berenguer

Mosaic: Antes de entrar en detalle, ¿podrías explicarnos brevemente a qué te dedicas? ¿En qué consisten tus proyectos?

José Manuel Berenguer: Me dedico a muchas cosas, todas ellas relacionadas en mayor o menor medida con el empleo artístico del sonido. Unas son de carácter especulativo mientras que otras tienen que ver con el activismo cultural.

Entre las primeras está lo que tradicionalmente se entiende como creación musical y artística: obras musicales en soporte fijo, obras musicales que generan el flujo de sonido en tiempo real y/o en interacción con un intérprete, obras audiovisuales que generan el flujo de sonidos e imágenes en tiempo real según un determinado algoritmo, piezas audiovisuales que interaccionan con la gestualidad del usuario a través de sensores e interfaces, instalaciones multimedia e instalaciones interactivas, esculturas, etc. Estos trabajos acostumbran a resultar de la meditación acerca de temas relacionados con la Filosofía, la Historia del Conocimiento, los límites del lenguaje, la Vida y la Inteligencia Artificial, la Robótica, el metabolismo social de la información, y un montón de temas que resultaría engorroso citar aquí en su totalidad. Por ejemplo, Mega kai Mikron es una instalación que realicé en Metrònom con la intervención del Centro Nacional de Microelectrónica del CSIC y cuyo tema central de meditación es el infinito. En el caso de “lambda-itter”, una performance audio-visual para flauta y 2 laptops que he trabajado con la flautista Jane Rigler, la cuestión fundamental es la idea de flujo.

Entre las relacionadas con el activismo cultural, me gustaría recordar las que llevo a cabo en la Orquestra del Caos y con Côclea, a saber, la codirección de Sonoscop, archivo de arte sonoro, de Zeppelin, festival de proyectos sonoros, y de Música13. Se trata de actividades de programación que responden a necesidades de índole teórico. Por ejemplo, el Zeppelin que estamos preparando ahora para inaugurar el 19 de Octubre en el CCCB es un conjunto de reflexiones, en forma de trabajos artísticos y teóricos, acerca de la ejecución y transmisión del control social a través de los sonidos. El festival Música13 de este año ofrece una programación inspirada en el papel chamánico de los actores musicales tradicionales y en las posibles tácticas que, basadas en las tecnologías del sonido, pueden ser diseñadas con la finalidad de superar ese estadio primitivo de la presentación de los trabajos musicales que, desgraciadamente, ni ha sido aún superado ni parece que existan razones para que pueda llegar a serlo en un futuro cercano.

Mosaic: A nivel técnico, ¿cómo describirías el proceso que sigues para realizar un trabajo concreto? ¿con qué herramientas trabajas?

J.M.B: Una de las primeras herramientas que uso para realizar mis trabajos es el lápiz. También echo mano de todos los instrumentos de documentación que tengo a mi alcance. Desde mi biblioteca a la de mis amigos y conocidos así como de los servicios públicos o semipúblicos de documentación a los que tengo acceso. En los últimos años, Google y, en general, todos los dispositivos de búsqueda en Internet, se ha convertido en la herramienta más útil para la concepción, quizá la fase más abstracta de los proyectos.

En casi todos mis trabajos, la presencia de altavoces y proyectores de datos es imprescindible. También acostumbra a serlo la de uno o varios ordenadores, pero puede que una instalación sólo contenga un pequeño circuito que genere todos los comportamientos. Por regla general esos ordenadores ejecutan aplicaciones que escribo en diversos lenguajes de programación. Entre ellos, MaxMSP-Jitter, PD, C, C++ , Objetive C, LISP, JavaScript, Java y Ensamblador.

Lo que realizan esas aplicaciones es muy variado. Lo único común a todas ellas es que gestionan algorítmicamente la información a muy diversos niveles y que, en su conjunto, utilizan casi todos los canales populares de comunicación entre ordenadores y dispositivos digitales.

Mosaic: Hablando de herramientas, ¿qué importancia les otorgas frente al proceso creativo y el bagaje cultural del artista?

J.M.B: No creo que se pueda distinguir entre las herramientas y el bagaje cultural del artista. Las herramientas condicionan los límites de las obras de arte. A lo largo de la historia del Arte, las herramientas han facilitado unas maneras de hacer al tiempo que dificultaban otras. Eso ha condicionado la creación artística. Las restricciones impuestas por las herramientas conforman las obras de arte y el conocimiento de la historia de ese condicionamiento es parte imprescindible del bagaje cultural de un artista. Se imbrican en el proceso creativo. O deberían imbricarse en él, de manera que fuera imposible separar una cosa de la otra. No acostumbro a creer en las piezas que no utilizan las herramientas adecuadas a su planteamiento o que se sirven de ellas, simplemente, por mimetismo, por moda, sin llegar a una relación profunda entre el uso de la herramienta y sus resultados formales.

Mosaic: Sería muy interesante que nos ofrecieras algunos ejemplos de lo que es un buen proceso de integración de la música en la web y en las aplicaciones multimedia.

J.M.B: Entre los trabajos en la red de redes, citaría los siguientes:

Uno muy interesante es el de Max Neuhaus en Auracle. Se trata de un chat sonoro. Los usuarios pueden interactuar de muchas formas. Lo básico es que el sistema recoge algunos detalles de la voz de cada uno para generar sonidos sintéticos que se mezclan con los de los otros usuarios. Está alojado en www.auracle.org y utiliza las tecnologías JSyn y Transjam.

El trabajo de Arcángel Constantini, también integra bien, a mi parecer imágenes y sonidos. Está en www.unosunosyunosceros.com.

SONIC WIRE SCULPTOR, de Amit Pitaru -se puede encontrar en pitaru.com-, es una aplicación que permite dibujar comportamientos sonoros muy simples. Por agregación se llega a generar objetos sonoros y musicales verdaderamente complejos. Combina JSyn con Processing.

Webdrum es una caja de ritmos que puede ser manipulada por varios usuarios on line, disponible en www.transjam.com/webdrum/webdrum.html

Innercity, de Stanza es un trabajo también muy interesante, realizado originalmente en Director. También, del mismo autor, cabe citar genomixer, soundcities y amorphoscapes.

En el contexto multimedia, hay muchísimos ejemplos de instalaciones que me parecen buenos. Quizá el trabajo de Concha Jerez y José Iges sea uno de los más consistentes. Igualmente, el de Justin Bennet, me parece imprescindible. También me gusta mucho el de Andrea Polli, Tilman Küntzel, Kristina Kubitsh, Paul Panhuysen. ¡Creo que hay demasiados como para nombrarlos todos!

Mosaic: ¿Qué papel tiene la música en esas aplicaciones?

J.M.B: El papel de la música en estas aplicaciones es central. Se trata de aplicaciones musicales, sonoras o, en el más alejado de los casos, audiovisuales.

Mosaic: Parece que cuando un equipo de trabajo realiza un proyecto multimedia coloca la música en el último puesto de la lista de importancia de los elementos que lo conforman. ¿Qué importancia tiene para ti la parte sonora de los proyectos? ¿Podemos hablar de una marginación del arte sonoro?

J.M.B: No se trata de marginación del arte sonoro. Es algo mucho más amplio. Creo que se trata de segregación de la experiencia acústica de la experiencia consciente. Es un fenómeno bastante curioso. El sonido tiende a ser percibido de forma inconsciente, mientras que la imagen tiende a serlo, contrariamente, de forma consciente. El sonido ha sido, en nuestra filogenia, vehículo de informaciones esenciales para la subsistencia en la oscuridad y en la lejanía, cuando la vista no tiene nada que hacer. Pero no tenemos párpados para los oídos. No podemos, pues, cortar el flujo de información sonora de forma mecánica. Por eso, tendemos a desconectar psíquicamente. A no escuchar el contenido sonoro, ya no de las páginas web, sino de todos los productos audiovisuales. El sonido no se oye como lo que es, sino como lo que representa. Cuando se ha identificado el significado, el significante no se oye más. Pero eso no es del todo así. Sí se oye aunque no se escuche. Como sí se ve, aunque no se mire. Pero se escucha mucho menos de lo que se mira.

Y, de la misma manera que cuando hay imperfecciones en la imagen, cuando el contenido formal del sonido es inapropiado, como en la mayor parte de las veces, entonces, aunque no se escuche, sí se percibe malestar. La ilustración sonora de un documento en la red no debería estar determinada por los imaginarios sonoros de los realizadores, porque el propio contenido simbólico que compone esos imaginarios impide o dificulta la escucha desapasionada. Debería limitarse, en gran medida, a las necesidades de accesibilidad, como la mayor parte de los elementos gráficos, a menos que el papel de los sonidos o de las músicas sea central. En este sentido, no habría que olvidar nunca que no todas las personas ven igual, que hay disminuidos visuales y acústicos. Las informaciones visuales y acústicas deberían complementarse y superponerse a fin de facilitar el acceso a todo el mundo. La redundancia no está de más si se pretende una verdadera democratización, para que los mensajes lleguen, sea quién sea y como sea quién se ponga a interpretarlos.

Mosaic: Karlheinz Stockhausen dijo en una ocasión que “desde que el hombre existe ha habido música. Pero también los animales, los átomos y las estrellas hacen música”. Al continuar con esa idea surge una duda: entonces, ¿todas las herramientas digitales de las que disponemos ahora, no suponen una revolución en la producción musical? ¿Estamos en un punto y aparte en la historia de la música o sólo es una línea de evolución más?

J.M.B: Eso no es una idea genuina de Stockhausen. Es más bien una emergencia más de un mito pitagórico. En Stockhausen, me resulta algo forzada. Parece que quiera recuperar la espiritualidad a través del panteísmo, tras un período de inhumanización exacerbada. De Stockhausen, creo más en sus músicas que en lo que dice acerca de ellas y del mundo. Acostumbra a resultarme demasiado esquemático, demasiado estudiado, demasiado dirigido a la obtención de algún objetivo buscado, a menudo de naturaleza mediática.

No veo la relación entre esa idea y la revolución que, indiscutiblemente, las herramientas digitales suponen en la producción musical. Para mí, lo esencial es la digitalización, precisamente, la discretización. En otros momentos históricos, la discretización de los hechos musicales supuso una revolución. El Ars Nova creció al mismo tiempo que la precisión en la notación discreta de la música. Sin la aparición de la idea de nota, es imposible pensar en las combinaciones lógicas que se pueden llevar a cabo con ellas. El planteamiento en el papel de esas posibilidades llevó en el Renacimiento a resultados tan inesperados como la polifonía de Carlo Gesualdo, Principe de Venosa.

La discretización actual tiene lugar a nivel microacústico. No podemos oírla aisladamente. Escuchamos su presencia como consecuencia de operaciones en la sintaxis de secuencias de elementos microscópicos. Con los ordenadores actuales, la escritura de los hechos musicales y sonoros es posible a niveles de precisión insospechados. No hay, sin embargo, por el momento, una teoría que permita la predicción de resultados dadas cualesquiera combinaciones sincrónicas o diacrónicas de elementos microacústicos. Si son posibles, seguramente tardaremos años en llegar a resultados palpables.

No tengo muy claro que en la historia haya tantos puntos y aparte como nos gusta ver. Hay mucho movimiento entorno a los usos musicales de las mal llamadas nuevas tecnologías. A medida que el tiempo pasa, se multiplican los interfaces, las técnicas de análisis y de síntesis, las herramientas, las piezas de software, las obras artísticas mismas.

Sin embargo, aunque no tengo muy claro qué es lo que se va a aprovechar de todo ello, a mi, lo que me apasiona es vivir. En ese sentido, la vivencia de la música y del sonido que esas tecnologías me permiten sí es un hecho diferencial. Puedo observar el sonido y la música, la imagen, es decir, a mi, a mi escucha, mi visión, mi percepción, desde cualquier perspectiva que sea capaz de formalizar, es decir, de programar. Que eso tenga una relevancia histórica está por ver. Quizá sí, si la masa crítica de experimentadores supera un cierto umbral cuyo nivel desconozco.

Mosaic: Los sintetizadores se llevan usando muchos años, los secuenciadores también: ¿qué aporta entonces el uso de un ordenador que no aportaran el resto de instrumentos electrónicos?

J.M.B: Los ordenadores permiten varias cosas que son imposibles con los instrumentos electrónicos antiguos. La primera, es el tiempo diferido. Permite reflexionar, operar, permutar, articular. Permite tomar una distancia con los objetos musicales inalcanzable con los otros instrumentos electrónicos. Quizá, el que más se le acerque en esas habilidades sea el magnetofón. Pero éste no ofrece ni de lejos las capacidades de representación gráfica. Los dispositivos digitales, por otra parte, son muchísimo más estables que los analógicos. Con ello, por la precisión de la lectura y, por tanteo de la reproducción, se facilita la escritura de los procesos musicales.

Los secuenciadores secuencian notas, no muestras. Los samplers, que son ordenadores, tampoco son muy útiles como generadores de sintaxis de muestras. Los ordenadores sí. Permiten emplear cualquier proceso de síntesis o de tratamiento que pueda ser formalizado.

En el terreno opuesto, en el mal llamado, según mi punto de vista, tiempo real, también es muy superior por su capacidad de reacción y de cálculo, siempre que se haya programado adecuadamente.

Mosaic: En ese caso, ¿es el laptop un instrumento más?

J.M.B: El laptop es una extensión del cerebro, una prótesis que te permite llegar a lugares dónde por tus limitaciones físicas nunca llegarías. Es una herramienta que permite crear esos lugares siempre que seas capaz de verlos con suficiente precisión.

Mosaic: Estás especializado en la relación entre la música y el mundo multimedia desde el año 1999, y has realizado o participado en multitud de proyectos. De todos ellos, ¿cuál es el más importante? ¿Por qué?

J.M.B: Me dedico a ello desde mucho antes. En el 1987 produje el SESLA, un sistema de excitación sonora por rayos láser. El movimiento del intérprete, que actuaba en su proximidad como un director de orquesta, disparaba comportamientos sonoros y visuales que respondían a la activación de producciones gramaticales codificadas en la implementación de máquinas de Moore. Era una especie de generador de objetos fractales. Utilicé ese dispositivo en mis conciertos y en las performances de Côclea, con Clara Garí, hasta el año 97, más o menos.

Por otra parte, si bien es cierto que en el 99 compuse Sonic Mem, un espectáculo interactivo que recorría las ideas de la Memética y que la Orquestra del Caos estrenó en el Festival de Músiques Contemporànies de Barcelona, mi colaboración con Joan Pueyo se remonta a mucho antes, a principios de los 90, quizá al 89 o antes.

No creo que haya una obra más importante que otra. Lo que para mí importa es el proceso, el camino, o mejor, la experiencia de ese camino. Me interesa especialmente el proceso de documentación, porque es el momento en que aprendo más cosas. En el momento de su creación, veo como más interesantes aquellas obras cuya preparación me ha llevado a aprender más cosas, pero, a posteriori, soy incapaz de decantarme por una o por otra. Soy mi historia y ella es la suma de todo lo que he experimentado.

Mosaic: Profundicemos en el asunto de las herramientas, Sueles trabajar con MAX / MSP, un entorno gráfico de programación para aplicaciones musicales, de audio y multimedia. ¿Qué oportunidades brinda al usuario? ¿Por qué has elegido esa herramienta y no otras similares?

J.M.B: La única herramienta verdaderamente similar a Max/MSP-Jitter es PD-GEM o jMax. No puede decirse que otras herramientas sean similares aunque ofrezcan una interfaz de usuario parecida. Max, PD y jMax actúan a un nivel de definición mucho más profundo que los otros entornos visuales de programación. Tampoco puede decirse que Flash o Director sean similares. Desde luego que cualquier entorno de programación permite casi todo lo susceptible de ser programado, pero la inmediatez de Max/MSP-Jitter o PD-GEM me parece difícilmente superable. A veces se echa en falta la estructuración de la información gráfica en capas, pero existen maneras de evitar los problemas que ello podria generar.

Es cierto que lo que más he usado en los últimos años es MaxMSP-Jitter. Se trata de un entorno de programación multiplataforma (xpwindows y macosx) especialmente orientado a la generación y tratamiento de sonidos y de imágenes 3D en tiempo real. También es capaz de procesar hasta límites insospechados contenido visual previamente grabado.

La diferencia entre Max y PD está en que el primero exige menos atención al sistema operativo y en que la interfaz gráfica tiene, por el momento, muchas más posibilidades. Por el momento, también es más estable. Por otra parte, hay menos desorden en los objetos de terceras partes, demasiado asilvestrados en PD. En el otro brazo de la balanza, PD-GEM y jMax son de Código Abierto y no cuestan nada.

En cuanto a las oportunidades que brinda al usuario, te diría que ofrece un entorno de programación capaz de actuar a casi cualquier nivel de definición en las características de la imagen y del sonido que produce, así como en la precisión de las relaciones entre estas dos señales. Si el nivel de precisión al que se accede no es suficiente para tu aplicación, siempre puedes echar mano del kid de desarrollo para escribir objetos max en C con las prestaciones que se desee. A un nivel intermedio, la distribución oficial de max ofrece intérpretes Java y JavaScript, pero también hay objetos de terceras partes que interpretan código escrito en LISP, Python, Perl, Unix, AppleScript, etc

En otro orden de cosas, en el dominio de las llamadas señales de control, ofrece también grandes posibilidades de relación con el mundo. Ello tiene lugar a través de los sensores más utilizados, como los micrófonos o las cámaras de vídeo, pero también a través de los puertos serie, ya sobre el protocolo MIDI, ya sobre otros protocolos más básicos, lo que facilita la llegada de señales de sensores de temperatura, presión, torsión, flexión, luminosidad, campo magnético, etc… Capítulo aparte es la facilidad con la que se adquieren datos de los interfaces de juegos a través de USB, así como las posibilidades de control del comportamiento de elementos actuadores, como motores de todo tipo y dispositivos de iluminación por medio del protocolo DMX.

Las señales llegan también con facilidad a través de ethernet o Wi-Fi, generalmente sobre TCP o UDP. La escritura de un Socket TCP o UDP no requiere más que una linea de código, por ejemplo. Eso facilita enormemente la transmisión de señales -video, audio o control- entre ordenadores así como su proceso de forma compartida. A mas alto nivel, los objetos de gestión de correo electrónico, ftp o http, también son de manejo muy fácil, por lo que las aplicaciones en los dominios más popularmente conocidos de Internet también se lleva a cabo con gran inmediatez.

De todas maneras, ninguna de las características anteriores serviría de mucho si no fuera por las facilidades de análisis de señal que MaxMSP-Jitter lleva implícitas. Los objetos que implementan FFT’s y sus derivados, convoluciones, vocoders de fase, etc, son imprescindibles tanto para caracterizar las señales sonoras y visuales como las procedentes de la gestualidad de los intérpretes o de los eventuales usuarios, así como las variaciones de las características físicas y ambientales del entorno.

Mosaic: Finalmente, ¿qué recomiendas a una persona interesada en formarse en los campos de arte y multimedia?

J.M.B: Es difícil pensar para los demás, especialmente cuando no se les conoce personalmente. Cada cual debe acercarse a la realidad según sus aptitudes. A mi me ha ido bien lo que otros calificarían de perder el tiempo : durante años he estado experimentado, escuchándome a mi mismo responder ante los sonidos y las imágenes, buceando en mi interior, estudiando, ensimismándome, apasionándome por cosas aparentemente sin importancia. No hay que olvidar que las señales multimedia se generan para ser percibidas por dispositivos biológicos de los que uno mismo es un ejemplar. No es lo mismo la señal que la sensación que genera. Conviene, pues, experimentar en carne propia lo que se siente cuando las señales cambian, para poder definir, con la mayor precisión, la forma en la que uno desea que evolucionen, dado un cierto contexto artístico en el que se pretende incidir. No hay que olvidar que, de momento, los ordenadores necesitan ser programados. Creo, además, que, aún cuando se autoprogramen, no estará de más conocerlos con cierta profundidad, si se pretende sacar el mejor partido de ellos.

José Manuel Berenguer

José Manuel Berenguer es músico y artista multimedia, aunque su formación universitaria le acredita como Doctor en Medicina. Como él mismo explica, ha pasado largos años "experimentando" consigo mismo, estudiando sus propias reacciones ante determinados estímulos audiovisuales. El resultado de ello se concreta en multitud de obras, acciones e instalaciones que tienen su origen al 50% en el uso de diversas herramientas multimedia y en el interés por determinados aspectos del conocimiento humano.Desde que su primera obra viera la luz en 1987, Berenguer ha realizado o participado en incontables proyectos, algunos de ellos recogidos en su propia web. Estamos, por tanto, ante una personalidad reconocida del mundo de lo multimedia.