
La música
electrónica es la música creada por medios electrónicos. Este concepto incluye la
música compuesta con cintas magnetofónicas (que sólo existe sobre la cinta y se
interpreta por medio de altavoces), la música electrónica en vivo (creada en tiempo real
con sintetizadores y otros equipos electrónicos), la música concreta (creada a partir de
sonidos grabados y luego modificados) y la música que combina el sonido de intérpretes
en vivo con música electrónica grabada. Si bien estos tipos de música se refieren en
principio a la.
En la década
de 1910, los futuristas italianos, liderados por el compositor Luigi Russolo, concibieron
una música creada con ruidos y cajas de música electrónicas. Fue entonces cuando
aparecieron los primeros instrumentos musicales electrónicos comerciales. No obstante,
ciertos compositores visionarios, como Alexandr Skriabin o Henry Cowell, habían soñado
una música creada solamente por medios electrónicos, aunque este tipo de música no fue
un hecho real hasta el desarrollo de la tecnología de la grabación de sonidos durante la
II Guerra Mundial.
El compositor
e ingeniero francés Maurice Martenot presentó en 1928 un instrumento electrónico
llamado ondas Martenot consistente en un generador de bajas frecuencias manejado con un
teclado de piano. En las décadas de 1940 y 1950, nacieron varios estudios de grabación
asociados a los nombres de figuras destacadas, cuyos objetivos eran específicamente
artísticos. En Francia, el ingeniero de sonido y compositor Pierre Schaeffer fundó el
estudio de Radio Francia (RTF) en París, compuesto por varias grabadoras, micrófonos y
equipos para la edición de cintas. Las principales técnicas utilizadas para crear
música consistían en cortar, pegar, empalmar o recorrer hacia atrás distintos
fragmentos de la cinta grabada. Estas técnicas de manipulación de las cintas dieron
lugar a un nuevo tipo de montaje de sonido, elaborado a partir de las grabaciones
provenientes del mundo real. Schaeffer calificó los resultados como música concreta, un
término que aún se sigue utilizando ampliamente, sobre todo en Francia. Su primer
experimento en este nuevo género utilizaba sonidos de grabaciones de trenes. Todas sus
obras de esa época eran breves estudios sobre sonidos y tenían títulos evocadores como
la Symphonie pour un homme seul (1950), compuesta en colaboración con su
colega Pierre Henry. Los experimentos prácticos de Schaeffer en la composición de
música electrónica se basaban en algunos escritos teóricos sobre el tema que influyeron
en él. El estudio de Henry y Schaeffer atrajo a diversos compositores, entre los cuales
destacaba Pierre Boulez.
A finales de
la década de 1940, Werner Meyer-Eppler, físico y director del Instituto de Fonética de
la Universidad de Bonn, presentó por vez primera el Vocoder, un dispositivo que
conseguía sintetizar la voz humana. Su trabajo teórico influyó en los compositores
relacionados con el estudio de la Radio de Alemania Occidental en Colonia (fundada en
1953), y cuyo interés giraba en torno a la síntesis electrónica de los sonidos mediante
generadores de sonido y otros aparatos. El primer director del estudio de Colonia, Herbert
Eimert, ejerció una gran influencia por su forma de utilizar el serialismo total como
base para la construcción de obras electrónicas. Según este método, todos los aspectos
de la música, incluidos el tono, el ritmo y el volumen
relativo, quedaban bajo el control de unos principios definidos numéricamente.
Compositores como Bruno Maderna y Karlheinz Stockhausen elaboraron piezas electrónicas
cortas, llamadas síntesis aditiva. Estas obras se componían enteramente a partir de
sonidos electrónicos.
A finales de
la década de 1950, ya se habían establecido gran parte de los estudios de música
electrónica de Europa. Los más importantes eran el de la RAI en Milán, fundado por
Luciano Berio y Maderna, el Instituto de Sonología de Utrecht y el estudio EMS de
Estocolmo. La división entre la música concreta y la música electrónica pura fue un
fenómeno básicamente europeo. Si bien en EEUU surgieron varios estudios en aquella
época, las distinciones estéticas eran allí menos importantes. En la década de 1950 en
Nueva York, los compositores Otto Luening y Vladimir Ussachevski crearon músicas para
cinta magnetofónica con un equipo de estudio muy rudimentario que transformaba los
sonidos grabados de instrumentos y voces mediante técnicas de manipulación de cintas y
simples unidades de reverberación. A finales de la década se asociaron con el Centro de
Música Electrónica de Columbia-Princeton, donde el compositor Milton Babbitt empleaba
una enorme computadora RCA para crear una música compuesta con los mismos principios
seriales que Eimert y Stockhausen en Colonia. Su obra Philomel (1964) fue una de
las primeras composiciones para soprano solista y cinta magnetofónica. El desarrollo de
la tecnología informática en las décadas de 1950 y 1960 llevó al establecimiento de
una serie de estudios dedicados en exclusiva a la música por ordenador en universidades
estadounidenses y, en menor medida, en Europa.
Durante las
décadas de 1960 y 1970, los estadounidenses Lansky y Barry Vercoe, entre otros,
desarrollaron paquetes de programas para música (programas informáticos diseñados para
la manipulación y creación de sonido), que se entregaban gratuitamente a los
compositores interesados. Esta tradición de software procedente de las
universidades de Estados Unidos ha contribuido en gran medida al crecimiento de la música
por computadora en todo el mundo. Tanto el Centro para la Investigación Informática en
Música y Acústica (CCRMA) de la Universidad de Stanford, en el estado de California,
como el Instituto de Recherche et de Coordination Acoustique/Musique (IRCAM) de París
(fundado por Pierre Boulez en 1976), utilizaron los ordenadores de forma significativa y
continúan siendo centros influyentes en la composición de música electrónica en la
actualidad.
El rápido
desarrollo de la tecnología informática durante los últimos 15 años ha conducido a una
revolución en la música por computadora y en la música electrónica en general. Los
ordenadores son ahora más asequibles, y los programas informáticos funcionan ahora en
cuestión de segundos o incluso de forma simultánea a los instrumentos. Son muchas las
universidades y conservatorios actuales equipados con un estudio de música por ordenador
y varios países tienen estudios nacionales, dedicados a la composición de música
electrónica. Además, los músicos trabajan cada vez más de forma independiente, en
estudios particulares.
A principios
del siglo XX se inventaron instrumentos electrónicos como el Telharmonium o el Theremin,
pero eran muy rudimentarios en su construcción y complicados en su funcionamiento. Los
sintetizadores e instrumentos electrónicos con amplificación, susceptibles de ser
utilizados en las actuaciones en vivo, se perfeccionaron en la década de 1960. La
computadora central RCA fue en esencia uno de los primeros sintetizadores electrónicos.
El aparato contenía todos los recursos necesarios para generar y modificar los sonidos
por medios electrónicos. En la década de 1960, Robert Moog, Donald Buchla y los
fabricantes británicos EMS, entre otros, comenzaron a producir sintetizadores que
utilizaban el control de voltajes. Se trataba de un medio electrónico para variar el tono
o el volumen, y se empleaba para crear, filtrar y modificar sonidos electrónicos. Pronto
aparecieron sintetizadores que ofrecían una serie de sonidos y efectos pregrabados.
Éstos serían utilizados cada vez más con propósitos comerciales, desde los anuncios de
la televisión hasta la banda sonora de películas de ciencia ficción. Hoy existe una
amplia variedad de sintetizadores, capaces de imitar casi cualquier sonido y de crear
gamas tonales y timbres completamente nuevos.
Los nuevos
instrumentos musicales electrónicos de la década de 1960 también contribuyeron al
crecimiento de la música electrónica en vivo, en la cual la creación y la manipulación
electrónica del sonido ocurren en tiempo real. Al mismo tiempo, ciertos compositores
creaban música electrónica en vivo con equipos fabricados por ellos mismos. Durante la
década de 1960, surgieron numerosos grupos de música electrónica en vivo, muchos de los
cuales interpretaban música improvisada de carácter teatral. En años recientes, la
revolución tecnológica también se tradujo en la aparición de numerosos instrumentos
electrónicos y programas de ordenador diseñados para las actuaciones en directo.
Destacan, entre otros, el músico y diseñador de instrumentos Michel Waisvisz, que
trabaja en los estudios STEIM de Holanda, inventor de diversos instrumentos como el
llamado The Hands (las manos), en el cual el movimiento de las manos del
intérprete en el espacio activaba sonidos complejos y permitía manipulaciones sonoras.
El compositor-intérprete estadounidense George Lewis combina la improvisación al
trombón con programas personalizados de composición por ordenador que trabajan de forma
simultánea. La estación de trabajo de procesamiento de señales desarrollada en el IRCAM
permite una manipulación muy compleja en tiempo real de los sonidos instrumentales y
sintéticos. Además de estos interfaces (superficie de contacto) altamente
especializados, muchos compositores e intérpretes utilizan algunas cajas de efectos
disponibles en el mercado, diseñadas pensando en el mercado de la música popular.
La evolución
del sintetizador y la guitarra eléctrica a partir de la década de 1950 también ha
influido en gran medida en el mundo del pop y la música rock. En la década de 1980 se
inventó una nueva forma de trabajar con instrumentos de música electrónica dirigida al
mercado popular: el llamado MIDI (interfaz digital de instrumentos musicales). El MIDI no
es un instrumento musical, sino un medio que permite a los sintetizadores y otros equipos
comunicarse unos con otros mediante el envío de instrucciones digitales. Por ejemplo,
mediante el MIDI un intérprete puede hacer que varios sintetizadores respondan cuando se
toque uno de ellos.
Las
diferentes técnicas utilizadas para crear música electrónica pueden dividirse entre las
que se usan para crear nuevos sonidos y las que se utilizan para modificar, o transformar,
sonidos ya registrados. Antes se usaban osciladores y filtros de control por voltaje, pero
estas funciones las realiza hoy el ordenador. La creación de sonidos completamente nuevos
obtenidos por la superposición o la mezcla de sonidos puros es un proceso llamado
síntesis aditiva. Por otra parte, el modelado de sonidos o filtración de ruido se conoce
como síntesis sustractiva. El compositor francés Jean-Claude Risset ha diseñado muchos
timbres por síntesis aditiva en obras como Mutations I (1979), mientras que el
estadounidense Charles Dodge usa la síntesis sustractiva con gran efectividad en su obra Cascando
(1983). La síntesis por frecuencia modulada (FM), documentada por vez primera por el
compositor estadounidense John Chowning en la década de 1960, se emplea como vía para
crear sonidos sintéticos complejos. Su pieza para cinta Stria (1976) está
compuesta de varios timbres FM mezclados. Se pueden usar filtros de diferentes tipos para
acentuar tonos o armonías específicas, y los sonidos pueden prolongarse en el tiempo, o
elevarse y bajarse de tono, gracias a técnicas como el vocoding de fase o
codificación predictiva lineal. Las Seis fantasías sobre un poema de Thomas Campion de
Paul Lansky (1979) son una obra pionera en este área. Además, se usan técnicas de
reverberación para añadir ecos o un cierto retardo a los sonidos grabados o
sintetizados, mientras que se utilizan técnicas de simulación de espacios o salas para
imitar el carácter acústico de las grandes salas de conciertos y otros espacios.
La música
por ordenador se caracteriza por el empleo de la tecnología digital. Si la música creada
mediante el corte y pegado de cintas utilizaba grabadoras y dispositivos analógicos, los
ordenadores almacenan la información de forma digital, como números que pueden
manipularse mediante procesos matemáticos usando programas informáticos. Desde la
década de 1960, los términos música electroacústica y por ordenador se refieren,
respectivamente, aunque no de forma constante, a la música analógica y a la digital. Hoy
esos términos se usan casi de forma equivalente, dado que casi toda la música
electrónica utiliza ahora tecnología digital.
Son hoy
muchos los compositores que escriben música electrónica, en una gran variedad de
estilos. En alguno de estos casos la tecnología digital ofrece la oportunidad de crear
una música para cinta magnetofónica que explore los sonidos del entorno natural. El
compositor francés Luc Ferrari ha escrito una serie de piezas, Presque Rien nº 1-3,
usando grabaciones directas de los sonidos del mar o del campo. Otros compositores, como
Denis Smalley en el Reino Unido o el argentino Horacio Vaggione, continúan la tradición
de la música concreta en la que los sonidos grabados son sometidos a un procesamiento y
una edición muy intensa. Este tipo de música, en la que los sonidos grabados son
tratados como objetos sonoros abstractos, es conocida como acusmática. Para compositores
como el canadiense Robert Normandeau es importante cómo se presenta la música de cinta
en una actuación. Su obra Spleen (1993) ha de interpretarse con varios altavoces.
Otros autores, como Luis de Pablo en España o Juan García Esquivel en México, también
se han servido de medios electrónicos para componer sus obras.
La música
electrónica es, en relación a la música en general, un campo muy nuevo que ha sabido
adaptarse a los rápidos avances tecnológicos. En años recientes ha habido enormes
avances en la tecnología interactiva y multimedia, de gran influencia en el carácter de
la música electrónica y en su interpretación. La disponibilidad de cada vez mayor
tecnología de comunicaciones como Internet y otras redes informáticas han permitido a
los compositores intercambiar programas de música e incluso sonidos grabados. Si se
observa este género de forma aislada, tanto desde el punto de vista de los compositores
como del público, se apreciarán las diferencias tecnológicas y estéticas con respecto
a la música convencional. Hoy son muchos los practicantes de este género que ven la
música electrónica como una parte del todo que constituye la música. Muchas obras
combinan sonidos electrónicos y acústicos (instrumentales). Buen número de compositores
de este género trabajan en colaboración con otros medios, como el vídeo, el cine o la
danza. Quizá en el futuro el término música electrónica desaparezca, una vez que tanto
la tecnología electrónica como la informática estén plenamente integradas en el mundo
del compositor.