1. Diseño y Comunicación >
  2. Publicaciones DC >
  3. Cuadernos del Centro de Estudios de Diseño y Comunicación Nº20 >
  4. La escucha expandida [sonido, tecnología, arte y contexto]

La escucha expandida [sonido, tecnología, arte y contexto]

Haro, Jorge [ver currículum del autor, docente de la Facultad de Diseño y Comunicación]

Cuadernos del Centro de Estudios de Diseño y Comunicación Nº20

Cuadernos del Centro de Estudios de Diseño y Comunicación Nº20

ISSN: 1668-0227

Ensayos

Año VI, Vol. 20, Mayo 2006, Buenos Aires, Argentina | 80 páginas

descargar PDF ver índice de la publicación

Ver todos los libros de la publicación

compartir en Facebook


Licencia Creative Commons Esta obra está bajo una Licencia Creative Commons Atribución-NoComercial-CompartirIgual 4.0 Internacional

El texto aborda la situación del sonido en la producción artística contemporánea, tomando como punto de inflexión la interacción entre los nuevos desafíos para la percepción y la utilización de los medios digitales de producción. Para esto se indag

“Quizás la historia misma sea una lucha titánica por el oído humano” (Sloterdijk, 2003:433)

.

1. Para la mayoría de los seres vivos el sonido es funcional. Los animales lo utilizan para estar alerta de sus depredadores o para saber cual es el momento usto para atrapar a su presa.

También puede ser un medio de comunicación o una brújula, como en el caso de los “cantos” de las ballenas y los “sonares” de los murciélagos, muy buenos ejemplos de comunicación y orientación espacial a través del sonido. Estas funcionalidades del mundo animal pueden extrapolarse a la vida humana. El mundo moderno desborda de señales como bips y sonidos tecnológicos que nos informan sobre distintas circunstancias: que alguien nos llama, que llega el ascensor, que nos toca el turno, que habrá un anuncio, que nos abrochemos los cinturones de seguridad, etc. Sonidos que ejercen el control social y que muchas veces se manifiestan en forma violenta (la bocina de un auto no sólo nos advierte, también nos acusa). Además de las señales el sonido aporta significados más complejos a través de la construcción de códigos que necesitan de un aprendizaje como la lengua, la música o el morse, razón por la cual el sistema de producción de sentido que generan se limita a un grupo que comparta la asociación sonido-sentido.

Así como el sonido puede decirnos cosas sobre el entorno o constituirse en un saber basado en signos sonoros arbitrarios también puede ser un vehículo estético o una experiencia de conocimiento mas allá de las causas y las significaciones.

Cuando intentamos hablar sobre sonido nos encontramos con una serie de dificultades relacionadas con su esencia inmaterial y efímera.

Por lo general lo primero que se intenta es deducir las causas, normalmente relacionadas con las fuentes, lo que redunda en una necesidad de reconocimiento del fenómeno para posteriormente pasar a una etapa de comprensión en la que se intenta dilucidar un mensaje. Paralelamente existe una secuencia sobre un eje cultural que desarrolla el ser humano desde su nacimiento de forma mas o menos conciente según cada etapa de la vida.

En este eje cultural se distinguen la identificación del entorno, la experiencia auditiva especializada1 y el aprendizaje de lenguajes arbitrarios que son las formas sonoras culturales. Lo que no ingresa en este modelo de escucha, tan bien descrito por Angel Rodríguez en su libro La dimensión sonora del lenguaje audiovisual (1998:205-207), es la percepción de las formas sonoras despojadas de toda significación y causa, ya sea desde una perspectiva científica o netamente experimental.

El sonido es movimiento pero está atado en su esencia y existencia al tiempo. Si a esto le sumamos el hecho que la mayoría de los sonidos acústicos evolucionan en formas complejas y que los sonidos sintéticos pueden llegar a hacerlo de igual manera la percepción de las formas sonoras se hace mucho mas interesante. Existe una analogía entre la evolución temporal de los sonidos y la secuencia de movimiento en un film dada por la continuidad de fotogramas. En una película la secuencia de fotogramas se nos presenta como movimiento a partir de lo que se conoce como principio de persistencia retiniana2.

Los sonidos, desde su inmaterialidad, también evolucionan temporalmente, hecho que puede corroborarse con distintos métodos de análisis gráfico o informático como oscilogramas, sono-gramas, espectrogramas, etc. Con medios electrónicos también es posible generar sonidos estáticos, es decir, sonidos con estructuras internas estables cuya única variable es el tiempo3. Algo similar a una foto o una imagen fija en una película. De acuerdo a su estructura interna los sonidos pueden despertar distintos grados de interés en el que escucha pero, en cualquier caso, se constituyen sobre el elemento tiempo que es el vehículo de todo fenómeno sonoro.

El estudio del sonido y su relación con el tiempo tiene dos facetas: Por un lado lo cuantificable, el tiempo objetivo aquel que discurre, que puede ser medido y para el que se han adoptado distintas formas de medición según la disciplina de trabajo (música, audiovisual, etc.). Pero también existe un tiempo subjetivo basado en sistemas de relación arbitrarios y en el contacto con el fenómeno en sí, con el sonar como experiencia. Este tipo de percepción del tiempo sonoro está vinculado a la escucha individual ya que oímos “lo que nosotros somos” y esto puede aplicarse no sólo a la música y a todo el sonido involucrado en el arte en la actualidad (audiovisuales, instalaciones, etc.) sino también a la experiencia cotidiana, a nuestro entorno doméstico, de trabajo, urbano, rural, etc.

Así como Duchamp afirmaba que son los espectadores los que hacen los cuadros podríamos decir que son los que escuchan los que hacen los sonidos o la música. La escucha que está por fuera de lo cuantificable, es decir por fuera de la aproximación científica, está cargada de subjetividad y es por esa subjetividad que la discusión se hace difícil.

Ante la falta de conceptos o puntos de vista objetivos se cae en la necesidad de ornamentar lo percibido con todo tipo de adjetivos, onomatopeyas, imágenes concretas y metafóricas que nos acerquen, de alguna manera, a “eso” que intentamos describir. Entonces: ¿Cómo traducir en palabras lo indecible del sonido? ¿Cómo construir un sistema que permita una mínima posibilidad de entendimiento? ¿Es necesario realizar este esfuerzo?

El compositor francés Pierre Schaeffer realizó una aproximación importante hacia el estudio sistemático de la percepción de los sonidos estableciendo tres tipos de escucha: Una relacionada con las causas (escucha de los indicios), otra con el sentido (escucha de los valores) y una tercera con la forma sonora en sí, a la que denominó escucha reducida: “Al rechazar la polarización de la escucha entre acontecimiento y sentido, nos dedicamos cada vez mas a percibir lo que constituye la unidad original, es decir el objeto sonoro, objeto de la actividad que llamaremos aquí escucha reducida” (1988:89)4. Michel Chion, compositor, ensayista y un continuador de las ideas de Schaeffer, afirma: “La escucha reducida es una gestión nueva y poco natural. Altera las costumbres y las perezas establecidas, y abre a quien la aborda un mundo de preguntas que antes ni siquiera imaginaba plantearse”. (1993:37)

Ahora bien: ¿Qué sentido tiene una escucha de este tipo? Está claro que es una escucha analítica e interrogativa y que deviene en método de estudio pero puede ser, además, una escucha plástica, sensible, de la que se pueda aprehender del sonido desde lo indecible, es decir, desde la experiencia misma, desligada de todo concepto y de toda palabra. En el párrafo de Schaeffer arriba citado aparece la idea de objeto sonoro. Define esto como la posibilidad de transformar al sonido en objeto de estudio separado de cualquier referencia o interpretación. Esta idea no pasó desapercibida y fue Roland Barthes quien dijo:

“El objeto sonoro todavía no es un producto estético sino una práctica significante, no es una estructura sino una estructuración, no es un objeto sino un trabajo y un juego, no es un conjunto de signos cerrados sino un volumen de trazos en movimiento, no es el significado sino el significante, no es la vieja obra musical sino el texto de la vida”. (1974:36-40)

La diferencia entre oír y escuchar está dada por la atención. Es la escucha la que nos permitirá que las formas sonoras se nos presenten como organismos, con sus ciclos de inicio, evolución y desaparición. Estos ciclos suelen ser complejos y existe en la mayoría de ellos un micro-mundo sumamente rico que necesita del tiempo para ser develado.

El sonido puede establecer un centro o un equilibrio para nuestra percepción (un sonido formado, bien equilibrado a decir de Schaeffer) pero también puede operar en los extremos, ser radicalmente intenso o casi imperceptible, extremadamente agudo o grave,modificar su forma abruptamente o muy gradualmente, stimularnos a través del oído o desde el resto del cuerpo5, imponer su presencia o denotar su ausencia. John Cage relata con detalle su experiencia con un sonido muy intenso:

“Hay gente que todavía se opone a los sonidos fuertes. Temen dañar sus oídos. Una vez tuve ocasión de escuchar un sonido muy fuerte -la conclusión de una performance de Zaj-. Había estado en el auditorio la tarde anterior por lo que sabía cuando el sonido llegaría. Me acerqué al altavoz desde el que se oiría y me senté allí durante una hora, girando hacia él primero una oreja y después la otra. Cuando me detuve mis oídos zumbaban.

El zumbido continuó durante el día y la noche siguiente. Al otro día temprano le pedí hora a un especialista del oído. El medico me hizo un examen concienzudo y me dijo que mis oídos estaban normales. La molestia había sido temporal. Mi actitud hacia los sonidos fuertes no ha cambiado. Los escucharé siempre que tenga oportunidad, manteniendo quizás una distancia adecuada”. (1999:160) “Desde hace veinticinco siglos el saber occidental intenta ver el mundo. Todavía no ha comprendido que el mundo no se mira, se oye. No se lee, se escucha”. (Attali, 1995:11)

Ya dijimos que la escucha es oír con atención, oír con una actitud concreta que requiere concentración. La concentración tiene que ver con una capacidad y esa capacidad es personal pero muchas veces depende de un entorno. Puede ser difícil escuchar si nuestro entorno no es el apropiado. Es en esta situación cuando aparece la palabra “ruido”6 como idea de algo que dificulta un proceso, en este caso el de la escucha, pero que paradójicamente la invade y la completa. Para resolver los problemas de entorno la arquitectura, y dentro de ella la ciencia acústica, desarrollan proyectos de espacios en lo que se supone que los sonidos deberían circular sin dificultad y facilitar nuestra atención hacia ellos. Los auditorios desde su disposición espacial, de objetos, mobiliario, iluminación, etc. inducen a la escucha.

Así y todo aunque las condiciones externas sean ideales el estado de concentración es muy inestable y mínimas situaciones pueden alejarnos por un momento o definitivamente de nuestra condición de sujeto que escucha. Se trata de situaciones mentales o disparadores psíquicos que suelen distraer nuestra atención, aún cuando nuestro entorno esté invadido de sonido, como sucede en muchas situaciones cotidianas, como los viajes en metro por ejemplo, o en ciertas performances de artistas sonoros en las que el que escucha se encuentra sumergido en sonido a través de complejos sistemas de proyección multicanal y en ocasiones expuesto a valores en decibeles cercanos al límite tolerable (120/ 140 decibeles), lo que transforma la escucha es un experiencia física7.

En esas circunstancias se está en el epicentro del fenómeno por lo que nuestra percepción queda invadida. Sin embargo, aunque la experiencia de inmersión sea extrema, nuestra atención puede ser frágil y es por esto que muchos artistas han pensado en el tiempo como un elemento fundamental de su sintaxis, una forma de decir ligada a las posibilidades de atención de un individuo del siglo XXI. Como lo afirma Enrique Belloc, uno de los pioneros de la música electroacústica en Argentina:

El tiempo fue estudiado por muchos científicos, pero en relación a la música y al sonido me parece que el tiempo debe inscribirse, para un sujeto del siglo XXI con las características de absorción de información que actualmente tiene, en aquel maravilloso espacio temporal estadístico que nos permita estar en ese tiempo que llamaría, parafraseando a Schaeffer, el tiempo máximo óptimo, es decir, un tiempo en el que yo puedo llegar a decir algo con la suficiente síntesis. (2002)

Estoy escribiendo sobre sonido y si bien no ignoro sus características físicas escribo sobre psicoacústica porque considero imposible una acercamiento a las expresiones artísticas ligadas al sonido en la actualidad sin cambios en nuestra actitud ante la percepción, es decir: sin cambios en nuestra actitud como escuchas.

Como dice el compositor y teórico Eliot Handelman:“Alterar nuestra forma de percibir es alterarnos a nosotros mismos, alterar la estructura de conocimiento y el mismo proceso cognitivo. De igual modo, las alteraciones en el conocimiento y en el proceso cognitivo no son factibles sin los cambios correspondientes en la percepción”. (1995)

En este sentido la tecnología electrónica se presenta como un elemento dual, por una lado puede ser una herramienta formidable para el cambio al mismo tiempo que demandar ese cambio desde su propia lógica.

2. “Spengler veía en la decadencia de occidente la promesa de una edad de oro de los ingenieros” (Adorno, 1951)

Un gran aporte tecnológico de fines del siglo XIX fue la posibilidad de registrar sonido. El invento del fonógrafo por Thomas Edison en 1878 se proyectó sobre el siglo XX no solo como una forma de reproducción mecánica, estratégica y mercantilista8 sino también como un recurso que hizo posible convertir al sonido en objeto de estudio.

La grabación y reproducción no solo abrieron las puertas al análisis sistemático y a la profundización del conocimiento de los valores físicos del sonido sino también al estudio de la percepción humana a partir de sus efectos. Como ya hemos visto, hasta ese momento la única forma de fijar sonidos era a través de códigos como la escritura de la lengua y la musical, es decir signos sonoros arbitrarios sujetos a procesos culturales y dominados por la idea de significante y significado definida por el estructuralismo clásico de Saussure. La grabación permitió entonces separar el sonido de su fuente, transformarlo en objeto y sentar las bases para su manipulación.

En la actualidad la tecnología nos permite manipular todo tipo de datos y estructuras. Desde la información hasta los genes, pasando por formas, colores, sonidos, etc. Las procesos sonoros en dominio digital van desde las técnicas mas clásicas (copiar, cortar, pegar, reproducir al revés, etc.) hasta otras mas sofisticadas como la aproximación microscópica, esa que hace posible intervenir sobre un bit, sobre una partícula de sonido y modificar su estructura, como así también el acceso a distintas posibilidades de síntesis, muestreo, re-síntesis, etc.

Todas estas técnicas mas las opciones de edición en una línea de tiempo hacen que la creación en este campo se presente como un menú sumamente rico en posibilidades, casi infinito.

El desarrollo tecnológico ha estado relacionado históricamente a las guerras y éstas a las necesidades políticas y económicas de los estados o de grupos de poder. Es así como muchas invenciones en el campo de la tecnología electrónica han sido posibles a partir de intereses muy concretos y en ocasiones el resultado de las investigaciones fueron subvertidas por artistas, profesionales de la información etc. Estos cambios en los objetivos iniciales de distintos desarrollos tecnológicos en ocasiones han tenido un efecto boomerang para volver a entrar en un círculo de intereses a gran escala desde lo económico, lo político, lo científico y lo estratégico. No somos

ingenuos: utilizamos medios que requieren desarrollo y este desarrollo tiene distintos objetivos al tiempo que alimenta un circuito económico que pocas veces ofrece resultados estables, porque para los sistemas de producción es imprescindible generar un interés sobre la novedad que satisfaga las necesidades capitalistas. Lo cierto es que en este estado de cosas la actualidad permite un acceso mucho mas amplio e irrestricto a los medios de producción electrónicos que unas décadas atrás.

Los primeros espacios institucionales que estudiaron la relación sonido, sintaxis, música y tecnología surgen a mediados del siglo XX y tienen como sedes las radios y las universidades. Pierre Sachaffer9 y Pierre Henry realizaron sus primeros experimentos en la Radio de Paris hacia fines de la década del cuarenta y fundaron la llamada musique concrète (música concreta) con la emisión de sus Cinco Estudios de Ruido10. Unos pocos años después Herbert Eimert y Karlheinz Stockhausen trabajaron en el estudio de música electrónica de la Nordwestdeutscher Rundfunk en Colonia, Alemania11.

En Latinoamérica el primer antecedente fue el Estudio de Fonología Musical, inaugurado en el año 1958 en la Facultad de Arquitectura de la Universidad de Buenos Aires por el compositor húngaro-argentino Francisco Kropfl, que después de cambios institucionales y de sedes se ubicó en el Centro Cultural Recoleta de Buenos Aires bajo el nombre de LIPM (Laboratorio de Investigación y Producción Musical) lugar en el que funciona hasta la actualidad.

Este tipo de laboratorios se fueron multiplicando en distintos puntos del planeta y el acceso a ellos se restringía a personas que pudieran exhibir una serie de antecedentes técnicos (ingenieros, especialistas en acústica, informática, etc.) y musicales. Mas allá de los requisitos que toda institución reclama para formar parte de ella había un hecho concreto: Los medios electrónicos eran sumamente costosos y pocos tenían acceso a su utilización. Esta situación ha ido cambiando en la medida que la tecnología ha ido evolucionando y este cambio fue paralelo al traspaso de la válvula de vacío al transistor, del transistor al circuito integrado y del circuito integrado al microchip.

En la medida que los sistemas de grabación, sintetizadores, ordenadores, etc. se han hecho más ricos en prestaciones sus costos han experimentado una relación inversamente proporcional, lo que hace posible que un mayor número de compositores, diseñadores, artistas sonoros y audiovisuales, técnicos, aficionados, etc. accedan mas fluidamente a las técnicas de producción, proceso y edición de sonido.

En la actualidad un ordenador puede ser una estación de trabajo completa, un sistema que permite comenzar y culminar un proceso de producción pasando por todas sus fases y que, además, puede ser portátil, hecho que facilita en mucho las acciones de distintos proyectos. Grabar, editar, mezclar sintetizar, procesar y controlar sonido de alta definición es absolutamente posible con un ordenador, una serie de periféricos y un paquete de software. Los distintos medios que fueron necesarios no hace mucho tiempo para las acciones anteriormente enumeradas tenían precios siderales y ocupaban mucho espacio.

Es cierto que los grabadores, los sintetizadores y procesadores de hardware y demás artilugios técnicos siguen exis tiendo y que realizan las funciones para las que fueron construidos con igual calidad, es solo que la tecnología digital permite realizar una serie de operaciones en una misma máquina a precios muy bajos en relación a otras épocas.

Pero ¿cuál es la ventaja por encima de esta coyuntura técnica y económica? Sin dudas la posibilidad de acceso a estas tecnologías por una mayor cantidad de usuarios, hecho que repercute en mas producción, mas propuestas y deriva en una potencial exploración sonora que a su vez puede devenir en una fabulosa experiencia estética y cognoscitiva. Esta es una época en la que la tecnología digital es un bien doméstico, solo debemos definir, nada más y nada menos, que queremos hacer con ella.

Si el siglo XX fue una época de atomización de la producción artística en relación a los lineamientos generales que se habían establecido en siglos anteriores (Barroco, Clasicismo, Romanticismo, etc.) como consecuencia de la velocidad de aceleración de los procesos sociales, económicos, políticos, culturales y tecnológicos, el siglo XXI, siglo de la tecnociencia y la sociedad numérica, puede ser un tiempo de mayor diversificación con libertad artística y creativa.

De no mediar una catástrofe económica a gran escala o una profundización de las crisis sociales como consecuencia de las notables diferencias de recursos económicos y calidad de vida que vemos por ejemplo entre los hemisferios norte y sur, los medios deberían hacerse cada vez mas accesibles y la “desprofesionalización” del arte -esto en un sentido de igualdad de posibilidades de acceso no desde el punto de vista del compromiso que toda actividad artística exige- podría redundar en una producción más personal y menos institucionalizada. Este no es un punto de vista necesariamente optimista sino una posibilidad pero también algo que está ocurriendo y que puede ser corroborado. Viene dándose fundamentalmente en círculos poco difundidos, generalmente relacionados a la cultura underground, pero que progresivamente han ido ganando espacio en la producción contemporánea a partir de la idea de “hazlo tu mismo”.

Seguramente alguien estará pensando en las arbitrariedades de los constructores de hardware y software como un escollo frente a la situación actual y futura y eso es así. Los cambios de procesadores y sistemas operativos muchas veces dejan obsoletas las aplicaciones en uso exigiéndonos una serie de updates que en ocasiones responden mas a los intereses de las empresas que a nuestras propias necesidades.

Esta claro que las posibilidades del hardware evolucionan constantemente por lo que será necesario pasar a unidades de proceso más rápidas lo mismo que al uso de otro tipo de interfaces. Pero también es cierto que existe a nivel global una red de usuarios de sistemas operativos y software libre, que en muchos casos además es gratuito, y que pueden ser también de código abierto.

Este tipo de programas se distribuyen libremente y están en constante evolución, ya que existen programadores que no solo los desarrollan sino que además publican el resultado de sus trabajos en Internet para quienes estén interesados en utilizarlos. Hay una cantidad importante de este tipo de aplicaciones para sonido y es así como hoy por hoy, mas allá del hardware elegido es posible trabajar, por citar solo un ejemplo, con un sistema operativo libre y gratuito como Linux y con un programa libre, gratuito y de código abierto como Pure Data (PD). Un sistema de este tipo es sumamente potente y flexible para trabajar en el campo del audio, el audiovisual, proyectos interdisciplinarios, etc.

Como las aplicaciones se han hecho más complejas muchas veces se necesitan conocimientos de programación, como en los entornos Max/MSP, PD o CSound y en algunos casos también el conocimiento de lenguajes como C++. Ya no alcanza con ser solo un usuario de una aplicación, lo que deriva en la necesidad de convertirse en un artista-programador o conformar equipos de trabajo con artistas y técnicos informáticos. Kit Clayton, músico y programador, integrante del equipo de Cycling74 la empresa que desarrolla Max/MSP, asegura que “...actualmente hay un mucho software para música que está siendo desarrollado por gente que poco tiene que ver con instituciones académicas. Y habría que ver si este software deriva o no del trabajo académico de hace unos años. Lo que está claro es que en un futuro va a haber más software hecho por individuos que por corporaciones, y los individuos asumirán el papel de la corporación, tal como ya ha ocurrido en el marcado musical”. (Loops, 2002:453)

Existen otras variantes en la relación sonido, música y computadoras que me gustaría repasar brevemente. Por un lado la basada en compositores algorítmicos que son programas capaces de “crear música” en base a una serie de especificaciones y variables que se suceden en el tiempo. Este tipo de software derivó en la llamada música generativa, una idea que altera los conceptos tradicionales de composición e interpretación.

Mucha de esta música y las herramientas para realizarla se distribuyen a través de Internet, como es el caso de la obra Lexikon-Sonate y la aplicación Flow del compositor alemán Karlheinz Essl12. Otro sistema para la composición de música generativa es el Koan Interactive Music Software de SSEYO13, un programa que ha sido bastante difundido a partir de su utilización por parte de Brian Eno. Por otra parte tenemos toda una producción basada en el error y esto se ha dado porque, como en todas las cosas, hay acciones y reacciones. La posibilidad que brinda la tecnología digital de tener un control absoluto sobre todos los parámetros del sonido abrió el camino para que una serie de artistas buscaran en los errores un escape a esa coyuntura. Trabajar con el error no es algo nuevo pero en los ‘90 se sumó el error digital a la lista de recursos expresivos (clicks’n’cuts, glitch, etc.) reactivo en algunos casos, teóricamente fundamentado en otros.

Uno de los iniciadores de este tipo trabajo en la electroacústica no-académica es el alemán Markus Popp (aka Oval) un licenciado en estudios de teoría social que relacionó el sonido electrónico con las ideas postestructuralistas de Deleuze y Guattari. Popp experimentó con los errores de lectura producidos en el formato CD durante los ‘90 y después de varias producciones en esta línea dirigió su interés a la observación de los procesos de creación sonora a partir de entornos informáticos. Para esto creó un software al que llamó Ovalprocess con el que ha realizado discos, conciertos e instalaciones.14 Control, sistema generativos, inteligencia artificial, aleatoriedad, error… Opciones y oposiciones en un marco artístico-tecnológico que deviene en exploración de procesos que muchas veces va bastante mas allá de los resultados.

2.2. En el contexto de la relación sonido, música y tecnología Internet es una vía de comunicación y un espacio de intercambio, no sólo para acceder a programas, información, instructivos, etc. sino también como una plataforma de colaboración artística en línea. En lo últimos años se ha ido desarrollado una importante actividad de colaboraciones online entre músicos, artistas sonoros, diseñadores de sonido etc. que en muchas ocasiones no se conocen personalmente15. Un excelente ejemplo de esto es el proyecto realizado por del físico y músico catalán Sergi Jordá para La Fura del Baus en base a un software diseñado por él mismo llamado FMOL16. En el año 1997 la Fura dels Baus comenzó a trabajar en la obra Faust 3.0 inspirada en el Fausto de Goethe. El director del proyecto, Carlos Padrissa, convocó a Jordá para componer una parte de la música de la pieza a través de Internet con la colaboración de “cyber-compositores” que estuvieran en distintos lugares del mundo.

Padrissa y Jordá comenzaron a trabajar guiados por la idea que no querían notas sino sonidos, es decir, una música hecha por escultores sonoros no por músicos convencionales. Solo demandaban de estos compositores que tuvieran una Conexión a Internet y una placa de audio. La música sería compuesta a partir del uso del mouse y otros compositores tenían derecho de procesar o modificar los trabajos previos.

Sergi Jordá y un colaborador llamado Toni Aguilar desarrollaron el FMOL, un software que posee un motor de síntesis en tiempo real y una interface de composición. Un servidor contenía la aplicación creada para que cualquier usuario pudiese disponer de ella en forma libre y gratuita. Se recibieron más de 1200 aportaciones breves ya que por decisión de la Fura las colaboraciones no podían ser de mas de 20 segundos. De todos esos trabajos se seleccionaron 50 que fueron los que finalmente pasaron a formar parte de la música de Faust 3.0.

Como hemos visto las colaboraciones en tiempo diferido a través de Internet son un hecho, el próximo paso consiste en la interacción en tiempo real, la que permitiría que artistas en distintos sitios puedan intercambiar sus experiencias sonoras en forma de concierto o performance. Para que esta interacción sea posible es necesario superar una serie de dificultades tecnológicas basadas en el hardware, los sistemas operativos y la infraestructura de la red.

En este último punto se han experimentado importantes cambios en el ancho de banda en un período de tiempo relativamente corto, con la consiguiente mejora en la capacidad de envío de archivos de audio y video. Lo que era absolutamente impensable en épocas del dial-up es por lo menos posible con el ADSL o la fibra óptica. El problema radica en el nivel de latencia y la fluctuación de datos de la red. La latencia es el tiempo que existe entre un dato en un extremo de la conexión y el momento en que ese dato es reproducido en el otro extremo. La fluctuación se refiere entonces a la variación de la latencia. Si la latencia no es estable la interacción en tiempo real no es posible. Las dificultades que se presentan no solamente conciernen a la transmisión del sonido sino también a la interpretación, al gesto instrumental y esto va mas allá de que los instrumentos sean tradicionales, controladores MIDI17, superficies de control, etc.

Los efectos de fluctuación de la red fueron minimizados con técnicas basadas en el almacenamiento de datos y el retraso en el comienzo de la reproducción pero sus resultados han sido poco efectivos para la interpretación musical. La mayor dificultad radica en las estructuras de los sistemas operativos y de la red. Internet fue pensada en un principio como un sistema de intercambio de información textual y de archivos, no así para transmitir grandes cantidades de datos ni para trabajar con entornos múltiples. Las investigaciones en el campo de la transmisión de datos multimedia intenta mejorar esta situación a partir de la creación de nuevos protocolos de conexión de red y de un hardware que posibilite la interacción sonora entre dos puntos distantes del planeta con valores aceptables de retraso entre ellos.

Cabe destacar que para algún tipo de expresión, como la improvisación libre por ejemplo, los retrasos actuales de los sistemas a los que tiene acceso la mayoría de usuarios pueden ser mucho menos relevantes que en el caso de trabajos basados en una métrica muy precisa o en las obras compuestas a priori, es decir aquellas que dependen de un guión o una partitura.

3. La música fue por mucho tiempo un medio expresivo casi excluyente para los sonidos en el arte occidental. Un medio que hasta el siglo XX estuvo restringido a voces e instrumentos pero que, tecnología electrónica mediante, progresivamente se ha ido liberando de ellos. No para abandonarlos definitivamente pero si para establecer una nueva plataforma en la que no deba recurrirse necesariamente a estos dispositivos o a su lógica de interpretación.

Ya no dependemos de los instrumentos para ser músicos, ni siquiera dependemos de la música para trabajar con sonido. Esta situación, forjada a lo largo de cien años, ha sido muy resistida por los sectores mas conservadores de la música y por la mayoría del público en general, lo que implica una negación de una serie de hechos históricos que se han ido dando desde la segunda mitad del siglo XIX y que han impactado en la sociedad, la política, la economía, etc. con su consiguiente eco en el mundo del arte.

Esta claro que la presión de la industria cultural y del entretenimiento es muy fuerte y resiste el cambio y que esa misma presión libera de violencia a muchos individuos por lo que además, es sumamente funcional al sistema, pero lo llamativoes como ciertas ideas conservadoras sobre la función de los sonidos en el mundo del arte se repiten en sectores “especializados”, aquellos que aparentemente han seguido una secuencia de acontecimientosy que trabajan por lo menos con cierta conciencia de los resultados de ese devenir histórico del que además forman parte.

Las ideas y las obras de artistas como Luigi Russolo, Edgar Varèse, John Cage, Pierre Schaeffer y Iannis Xenakis, por citar solo un puñado de ejemplos, no parecen haber hecho impacto más allá de sectores muy específicos. La actividad artística ligada a esas obras e ideas está restringida a festivales y expresiones minoritarias en circuitos contraculturales.

En esta circunstancia el panorama dentro de la producción y difusión de música es muy particular. Paradójicamente es el período de la historia de la humanidad en el que más música hay pero menos música se escucha. La música pasó a formar parte de un entorno, de un ambiente y acompaña todo tipo de situación social como un mobiliario. Los bares, los consultorios, las esperas telefónicas, los mercados, los cyber-cafés, etc. emiten música permanentemente con fines funcionales y en muchos casos con repertorios hechos a la medida de los perfiles socio-económicos y culturales de sus clientes lo que define espacios de pertenencia. Está claro que en este contexto no hay ninguna posibilidad de expandir nuestra escucha, todo lo oído (no escuchado) se constituye en una pre-escucha, en algo perfectamente conocido, más allá de que se presente como una novedad.

Como muy bien lo señaló Jacques Attali se trata del establecimiento de una cultura de la repetición signada por la reelaboración de un repertorio, desde los clásicos sinfónicos hasta la música pop. Los estilos se reinventan todo el tiempo, ya sea desde la orquestación, los ritmos o por la utilización de instrumentos digitales para la organización sonora o como potenciales medios de transformación de los aspectos tímbricos de esas músicas.

Por otro lado, si bien la escucha tiene mucho mas lugar de desarrollo en el campo de lo “artístico” también allí hay dificultades. Se define otra paradoja: la grabación y reproducción permitió a los artistas trabajar directamente con el sonido, hecho que los colocó en una situación similar a la de los pintores y escultores que tienen contacto directo con la materia de su obra. Esto fue toda una novedad ya que hasta el momento en que se comenzó a manipular el sonido mucha música existía en un código, la escritura, y sonaba solamente cuando era ejecutada por instrumentistas, es decir cuando era interpretada.

La trilogía compositor-intérprete-oyente era indispensable. La tecnología electrónica permite tener un resultado inmediato del sonar de las obras y muchas veces, desde Schaeffer y Henry hasta nuestros días, se prescinde del intérprete sencillamente porque no es necesario. Sin embargo, en ocasiones esas piezas son de difícil escucha porque el proceso que involucran, el que constituye un conocimiento en sí mismo, es mucho más interesante que el resultado sonoro. Salvando esta situación lo cierto es que una buena parte de la producción contemporánea se basa en el sonar y, como ya lo hemos dicho, los medios tecnológicos para que estas obras suenen se han multiplicado lo que resulta en una producción muy abundante.

Esos trabajos, una vez convertidos en soporte para su reproducción, no están a disposición en los megastores de discos sino que tienen un circuito alternativo formado por pequeñas tiendas especializadas, tiendas online o la venta en conciertos y festivales. También existe un circuito inmaterial a través de net labels que publican obras en la red para ser compradas o distribuidas gratuitamente en formato mp3. El sonido no solo se ha liberado de la música como única opción expresiva sino que además, se ha emancipado de los grandes sistemas de producción y comercialización a través de sociedades autogestionadas que muchas veces tienen además el sello creative commons18.

La gestión de la publicación, difusión y distribución de las obras pasó a ser una actividad mas de los artistas. Son los propios interesados los que se ocupan de estos trabajos, prescindiendo muchas veces de la figura del productor instalada en la industria cultural. La actividad entonces no solo se limita a la obra sino también a la creación de sellos, ciclos de conciertos, conferencias, festivales, sitios en Internet, etc. Como lo afirmó Jérome Noetinger, director de la productora Métamkine, en una conferencia realizada en la Casa de la Imagen y del Sonido de la Ciudad de Lyon, Francia, el 11 de octubre de 1996:

“Me parece cada vez más evidente y forzosamente necesario, en el marco de las músicas experimentales, que el músico no sea solamente músico, sino que se comprometa de una forma u otra en la promoción (supervivencia) de estas músicas. La música existe en la escucha… entonces se organiza todo un mundo paralelo con marcas, redes de distribución, prensa, radio… Un mundo underground…” (1996)

IV. Desde hace ya mucho tiempo el sonido pasó a formar parte de distintos proyectos artísticos que están por fuera de la música, por lo menos por fuera de aquello que una mayoría define como tal. Del cine sonoro en adelante abundan los trabajos en los que se articula sonido sin contar necesariamente con la pesada tradición musical, cargada de reglas y estructuras históricas.

Una historia que, como ya hemos dicho, se fue transformando a lo largo del siglo XX y que dejó de lado la alta ingeniería de la composición para dejarle lugar al sonido y sus formas, los cálculos de probabilidades, la aleatoriedad, los procesos generativos, etc. En esta nueva mezcla de intereses surge la re-significación del espacio como un ingrediente muy importante. Si bien la dimensión del tiempo es la que domina, el sonido siempre se ha relacionado con el espacio simbióticamente. Si consideramos la aparición de la estereofonía como el inicio de un proyecto de espacialización asistida por la tecnología podemos corroborar que ya existe una pequeña historia que en la actualidad investiga en las posibilidades de espacialización controlada, aleatoria o parcialmente definida. El espacio dejó de ser solo un continente de circulación para pasar a ser también un elemento de la sintaxis y de la narración.

Un súper campo en el que el sonido puede moverse, describir trayectorias o envolvernos a partir de la implementación de sistemas electroacústicos de cuatro, ocho, dieciséis o más canales operados en tiempo real o automatizado con sistemas informáticos. El espacio es entonces otro elemento que al igual que el sonido se puede esculpir, diseñar, percibir y habitar.

Esta nueva concepción del espacio sonoro, tan espectacularmente aprovechada por el cine con el Dolby Stereo o el sistema THX, ya se ha trasladado a lo doméstico con la inclusión del sourround en los equipos audiovisuales hogareños.

Esta nueva construcción sonoro-espacial sumada a la convivencia del sonido con investigaciones ligadas a las ciencias, los procesos biológicos, el contexto social, la arquitectura, los intereses antropológicos, etc. en la producción artística contemporánea dan como resultado un presente complejo y rico en propuestas, realizaciones, acercamientos y puntos de vista.

Un período heterogéneo en el que proyectos como las instalaciones sonoras y audiovisuales, las piezas interactivas o reactivas, los conciertos audiovisuales, las intervenciones urbanas, los soundscapes, las derivas, las performances en tiempo real, los trabajos hipertextuales, la animación, la robótica, etc. constituyen una realidad que exige una nueva forma de aproximación crítica y perceptiva.

Notas .

1 El afinador de pianos o el mecánico de automóviles pueden ser un ejemplo de esto.

2 La persistencia retiniana es un fenómeno visual que consiste en la retención en nuestra cerebro de una imagen durante un mínimo espacio de tiempo. La interpolación entre esa imagen cerebral y la percibida en tiempo real producen la illusion de movimiento en un fillm, video, etc.

3 Las formas de onda sintéticas sinusoidal, triangular, cuadrada y diente de sierra son ejemplos de sonidos de estructura fija.

4 Schaeffer toma el calificativo de reducida de la noción fenomenológica de reducción de Husserl.

5 Masami Akita (Merzbow): “En mi opinión, tras la explosión de la música techno la gente se ha interesado más por la música desde el punto de vista físico; es un interés más por el sonido en si mismo que por la música. Creo que esta muy bien que la gente pueda enfrentarse al lado más físico de la música”. (s.f.) 6 Palabra de múltiples acepciones, desde la estrictamente acústica hasta la utilizada en ciencias de la comunicación pasando por terminología técnica, de diseño, etc.

7 Las conciertos del japonés Masami Akita (Merzbow) o del polaco Zbigniew Karkowski son un ejemplo de estos encuentros radicales con el sonido.

8 Theodor Adorno lamentó la decadencia en la que había caído el acto de escuchar por culpa de la tecnología moderna.

9 Ingeniero-músico que en el año 1934 trabajaba para el servicio de telecomunicaciones de Estrasburgo y que dos años mas tarde fue trasladado a la Radio de París.

10 Piezas que contienen el maravilloso Estudio de los Ferrocarriles de Schaeffer.

11 Una de las diferencias entre la música concreta y la electrónica era la metodología para la obtención del sonido. Mientras Schaeffer y Henry utilizaban micrófonos para captar sus materiales básicos Stockhausen y Heimert apuntaron al control total del sonido a partir de la generación electrónica producida con osciladores de audiofrecuencia.

12 http://www.essl.at .

13 http://www.sseyo.com .

14 http://www.meso.net/oschatz/oval/process.html .

15 Esta red tiene un antecedente analógico importante desarrollado en los años ’80 llamado “Audio Cassette Network”.

16 http://www.iua.upf.es/~sergi/FMOL .

17 Sigla correspondiente a Musical Instrument Digital Interface [MIDI].Es una norma de transmisión de datos entre instrumentos musicales lectrónicos establecida como un estándar por la industria musical desde principios de la década del 80.

18 http://creativecommons.org/

Bibliografía .

-Adorno, Theodor. (1951). Mínima Moralia: Reflexionen aus dem beschdigten Leben, in: Gesammelte Schriften IV. Francfort, Suhrkamp. 1980. Citado en Palombini, Carlos. La música concreta revisada. (1999:25-26) Música y nuevas tecnologías, Perspectivas para elsiglo XXI. Barcelona: L’Angelot.

-Akita, Masami (Merzbow) (s.f.). Merzbow: Holocausto acústico. Laylah número 8. [Revista en línea]. Disponible en http://www.laylah.net/ .

-Attali, Jacques. (1995) Ruidos, Ensayo sobre la economía política de la música. México D.F.: Siglo Veintiuno Editores.

-Barthes, Roland. (1974) L’aventure sémiologuique. Ouvres complètes III. París: Seuil.

-Cage, John. (1999) Escritos al oído. Colegio Oficial de Aparejadores y Arquitectos Técnicos de la Región de Murcia, Colección de Arquitectura.

-Chion, Michel. (1993) La Audiovisión, Introducción a un análisis conjunto de la imagen y el sonido. Barcelona: Editorial Paidós.

-Handelman, Eliot. (1995) Cybersemiosis: 2nd Worlds-2nd Percpetion. Disponible en: http://www.music.princeton.edu/~eliot/cybersem_1.html .

-Haro, Jorge. (2002) Entrevista a Enrique Belloc [video]. Buenos Aires. Pieza videográfica no publicada.

-Noetinger, Jérome. (1996) (s.t.). Conferencia realizada en la Casa de la Imagen y del Sonido de la Ciudad de Lyon, Francia, el 11 de octubre de 1996. Citado en Blanchart, Phillip. De Luigi Russolo al músico simbiótico. (1999:19) Música y nuevas tecnologías, Perspectivas para el siglo XXI. Barcelona: L’Angelot.

-Ramos, Ana y Jiménez, Roc. (2002) Loops, Una historia de la música electrónica. Barcelona: Reservoir Books.

-Reck Miranda, Eduardo (ed). (1999) Música y nuevas tecnologías, Perspectivas para el siglo XXI. Barcelona: L’Angelot.

-Rodríguez Bravo, Angel. (1998) La dimensión sonora del lenguaje audiovisual. Barcelona: Editorial Paidós.

-Schaeffer, Pierre. (1988) Tratado de los objetos musicales. Madrid:Alianza Editora, Colección Alianza Música.

-Sloterdijk, Peter. (2003) Esferas I. Madrid: Siruela.


La escucha expandida [sonido, tecnología, arte y contexto] fue publicado de la página 41 a página48 en Cuadernos del Centro de Estudios de Diseño y Comunicación Nº20

ver detalle e índice del libro