Es
música creada con medios electrónicos. Este
concepto incluye la música compuesta con cintas magnetofónicas
(que sólo existe sobre la cinta y se interpreta por
medio de altavoces), la música electrónica
en vivo (creada en tiempo real con sintetizadores y otros
equipos electrónicos), la música concreta
(creada a partir de sonidos grabados y luego modificados)
y la música que combina el sonido de intérpretes
en vivo y música electrónica grabada. Si bien
estos tipos de música se refieren en principio a
la naturaleza de la tecnología y las técnicas
empleadas, estas divisiones son cada día menos claras.
Hoy está en uso otra terminología como música
por computadora, música electroacústica o
música radiofónica, unas definiciones que
suelen referirse más a la estética que a las
tecnologías utilizadas.
Antecedentes históricos
En la década de 1910, los futuristas italianos, liderados
por el compositor Luigi Russolo, concibieron una música
creada con ruido y cajas de música electrónicas.
Fue entonces cuando aparecieron los primeros instrumentos
musicales electrónicos comerciales. No obstante,
ciertos compositores visionarios como Alexander Skriabin
o Henry Cowell habían soñado una música
creada solamente por medios electrónicos, aunque
este tipo de música electrónica no fue un
hecho real hasta el desarrollo de la tecnología de
la grabación de sonidos durante la II Guerra Mundial.
El compositor e ingeniero francés Maurice Martenot
presentó en 1928 un instrumento electrónico
llamado Ondas Martenot, un generador de bajas frecuencias
manejado con un teclado de piano. En las décadas
de 1940 y 1950 nacieron varios estudios de grabación,
asociados a los nombres de figuras destacadas, cuyos objetivos
eran específicamente artísticos. En Francia,
el ingeniero de sonido y compositor Pierre Schaeffer fundó
el estudio de Radio Francia (RTF) en París, compuesto
por varias grabadoras, micrófonos y equipos para
la edición de cintas. Las principales técnicas
utilizadas para crear música consistían en
cortar, pegar, empalmar o recorrer hacia atrás distintos
fragmentos de la cinta grabada. Estas técnicas de
manipulación de las cintas dieron lugar a un nuevo
tipo de montaje de sonido, elaborado con mucho esfuerzo
a partir de las grabaciones de sonido provenientes del mundo
real. Schaeffer calificó los resultados como música
concreta, un término que aún se sigue utilizando
ampliamente, sobre todo en Francia. Su primer experimento
en este nuevo género utilizaba sonidos de grabaciones
de trenes. Todas sus obras de esa época eran breves
estudios sobre sonidos y tienen títulos evocadores
como la Sinfonía para un hombre solo, compuesta en
colaboración con su colega (más joven que
él) Pierre Henry. Los experimentos prácticos
de Schaeffer en la composición de música electrónica
se basaban en algunos escritos teóricos sobre el
tema que influyeron en él. El estudio de Henry y
Schaeffer atrajo a diversos compositores, entre los cuales
destacaba Pierre Boulez.
A finales de la década de 1940 Werner Meyer-Eppler,
físico y director del Instituto de Fonética
de la Universidad de Bonn, presentó por vez primera
el Vocoder, un dispositivo que conseguía sintetizar
la voz humana. Su trabajo teórico influyó
en los compositores relacionados con el estudio de la Radio
de Alemania Occidental en Colonia (fundada en 1953), y cuyo
interés giraba en torno a la síntesis electrónica
de los sonidos mediante generadores de sonido y otros aparatos.
El primer director del estudio de Colonia, Herbert Eimert,
ejerció una gran influencia por su forma de utilizar
el serialismo total como base para la construcción
de obras electrónicas. Según este método,
todos los aspectos de la música, incluidos el tono,
el ritmo y el volumen relativo, quedaban bajo el control
de unos principios definidos numéricamente. Los sonidos
y aparatos electrónicos brindaban la precisión
y el control necesarios para la realización de este
concepto. Compositores como Bruno Maderna y Karlheinz Stockhausen
elaboraron piezas electrónicas cortas, llamadas síntesis
aditiva (véase la sección de síntesis
del sonido más adelante). Estas obras se componían
enteramente a partir de sonidos electrónicos.
A finales de los años cincuenta ya se habían
establecido gran parte de los estudios de música
electrónica de Europa. Los más importantes
eran el de la RAI en Milán, fundado por Luciano Berio
y Maderna, el Instituto de Sonología de Utrecht y
el estudio EMS de Estocolmo. La división entre la
música concreta y la música electrónica
pura fue un fenómeno básicamente europeo.
Si bien en EEUU surgieron varios estudios en aquella época
las distinciones estéticas eran allí menos
importantes. En la década de 1950 en Nueva York los
compositores Otto Luening y Vladimir Ussachevski crearon
músicas para cinta magnetofónica con un equipo
de estudio muy rudimentario. Su música transformaba
los sonidos grabados de instrumentos y voces mediante técnicas
de manipulación de cintas y simples unidades de reverberación.
A finales de la década se asociaron con el Centro
de Música Electrónica de Columbia-Princeton,
en el cual el compositor Milton Babbitt empleaba una enorme
computadora RCA para crear una música compuesta con
los mismos principios seriales que Eimert y Stockhausen
en Colonia. Su obra Philomel (1964) fue una de las primeras
composiciones para soprano solista y cinta magnetofónica.
El desarrollo de la tecnología informática
en las décadas de 1950 y 1960 llevó al establecimiento
de una serie de estudios dedicados en exclusiva a la música
por ordenador en universidades estadounidenses y, en menor
medida, en Europa.
Durante los años sesenta y setenta los estadounidenses
Lansky y Barry Vercoe, entre otros, desarrollaron paquetes
de programas para música (programas informáticos
diseñados para la manipulación y creación
de sonido), que se entregaban gratuitamente a los compositores
interesados. Esta tradición de software en las universidades
de Estados Unidos ha contribuido en gran medida al crecimiento
de la música por computadora en todo el mundo. Tanto
el Centro para la Investigación Informática
en Música y Acústica (CCRMA) de la Universidad
de Stanford, en el estado de California, como el Institute
de Recherche et de Coordination Acustique/Musique (IRCAM)
de París (fundado por Pierre Boulez en 1977), utilizaron
los ordenadores de forma significativa y continúan
siendo centros influyentes en la composición de música
electrónica en la actualidad.
El rápido desarrollo de la tecnología informática
durante los últimos 15 años ha conducido a
una revolución en la música por computadora
y en la música electrónica en general. Los
ordenadores son ahora más asequibles, y los programas
informáticos, que antes eran muy lentos, funcionan
ahora en cuestión de segundos o incluso de forma
simultánea a los instrumentos. Son muchas las universidades
actuales equipadas con un estudio de música por ordenador
y varios países tienen estudios nacionales, dedicados
a la composición de música electrónica.
Además, los músicos trabajan cada vez más
de forma independiente, en estudios particulares.
Los sintetizadores y los instrumentos de música electrónica
A principios del siglo XX se inventaron instrumentos electrónicos
como el Telharmonium o el Theremin, pero eran muy rudimentarios
en su construcción y complicados en su funcionamiento.
Los sintetizadores e instrumentos electrónicos con
amplificación, susceptibles de ser utilizados en
las actuaciones en vivo, se perfeccionaron en la década
de 1960. La computadora central RCA fue en esencia uno de
los primeros sintetizadores electrónicos. El aparato
contenía todos los recursos necesarios para generar
y modificar los sonidos por medios electrónicos.
En los sesenta, Robert Moog, Don Buchla y los fabricantes
británicos EMS, entre otros, comenzaron a producir
sintetizadores que utilizaban el control de voltajes. Se
trataba de un medio electrónico para variar el tono
o el volumen, y se empleaba para crear, filtrar y modificar,
sonidos electrónicos. Pronto aparecieron sintetizadores
que ofrecían una serie de sonidos y efectos pregrabados.
Éstos serían utilizados cada vez más
con propósitos comerciales, desde los anuncios de
la televisión hasta la música para películas
de ciencia-ficción. Hoy existe una amplia variedad
de sintetizadores, capaces de imitar casi cualquier sonido
y de crear gamas tonales y timbres completamente nuevos.
Los nuevos instrumentos musicales electrónicos de
la década de 1960 también contribuyeron al
crecimiento de la música electrónica en vivo,
en la cual la creación y la manipulación electrónica
del sonido ocurren en tiempo real (es decir, que se tocan
y se escuchan en el momento). Al mismo tiempo, ciertos compositores
creaban música electrónica en vivo con equipos
fabricados por ellos mismos. La obra Solo de Stockhausen
(1966), por ejemplo, utilizaba un complejo sistema de retardo
de la grabación que requería cuatro ayudantes
para su interpretación. Durante la década
de 1960 surgieron numerosos grupos de música electrónica
en vivo, muchos de los cuales interpretaban música
improvisada de carácter teatral. En años recientes,
la revolución tecnológica también se
tradujo en la aparición de numerosos instrumentos
electrónicos y programas de ordenador diseñados
para las actuaciones en directo. Destacan, entre otros,
el músico y diseñador de instrumentos Michel
Waisvisz, que trabaja en los estudios STEIM de Holanda,
inventor de diversos instrumentos como el llamado The Hands
(las manos), en el cual el movimiento de las manos del intérprete
en el espacio activa sonidos complejos y permite manipulaciones
sónicas. El compositor-intérprete estadounidense
George Lewis combina la improvisación al trombón
con programas personalizados de composición por ordenador
que trabajan de forma simultánea. La estación
de trabajo de procesamiento de señales desarrollada
en el IRCAM permite una manipulación muy compleja
en tiempo real de los sonidos instrumentales y sintéticos.
Además de estos interfaces (superficie de contacto)
altamente especializados, muchos compositores e intérpretes
utilizan algunas cajas de efectos disponibles en el mercado,
diseñadas pensando en el mercado de la música
popular.
La evolución del sintetizador y la guitarra eléctrica
a partir de los años cincuenta también ha
influido en gran medida en el mundo del pop y la música
rock. Los avances tecnológicos fueron acogidos con
entusiasmo por grupos como The Grateful Dead, Pink Floyd
y la Velvet Underground. En la década de 1980 se
inventó una nueva forma de trabajar con instrumentos
de música electrónica dirigida al mercado
popular: el llamado MIDI (interface digital de instrumentos
musicales). El MIDI no es un instrumento musical, sino un
medio que permite a los sintetizadores y otros equipos comunicarse
unos con otros mediante el envío de instrucciones
digitales. Por ejemplo, mediante el MIDI un intérprete
puede hacer que varios sintetizadores respondan cuando se
toque uno de ellos. El uso de la tecnología musical
en la música pop y rock es tan importante que la
naturaleza de los instrumentos y las otras tecnologías
musicales relacionadas con la música electrónica
están dictadas, en gran medida, por las necesidades
de la industria del rock.
La síntesis del sonido y las técnicas de procesamiento
Las diferentes técnicas utilizadas para crear música
electrónica pueden dividirse entre las que se usan
para crear nuevos sonidos y las que se utilizan para modificar,
o transformar, sonidos ya registrados. En épocas
pasadas se usaban osciladores y filtros de control por voltaje,
pero estas funciones las realiza hoy el ordenador. La creación
de sonidos completamente nuevos obtenidos por la superposición
o la mezcla de sonidos puros es un proceso llamado síntesis
aditiva. Por otra parte, el modelado de sonidos o filtración
de ruido se conoce como síntesis sustractiva. El
compositor francés Jean-Claude Risset ha diseñado
muchos timbres por síntesis aditiva en obras como
Mutations I (1979), mientras que el estadounidense Charles
Dodge usa la síntesis sustractiva con gran efectividad
en su obra Cascando (1983). La síntesis por frecuencia
modulada (FM), documentada por vez primera por el compositor
estadounidense John Chowning en la década de 1960,
se emplea como vía para crear sonidos sintéticos
complejos. Su pieza para cinta Stria (1976) está
compuesta de varios timbres FM mezclados. Se pueden usar
filtros de diferentes tipos para acentuar tonos o armonías
específicas, y los sonidos pueden prolongarse en
el tiempo, o elevarse y bajarse de tono, gracias a técnicas
como el vocoding de fase o codificación predictiva
lineal. Las Seis fantasías sobre un poema de Thomas
Campion de Paul Lansky (1979) son una obra pionera en este
área. Además, se usan técnicas de reverberación
para añadir ecos o un cierto retardo a los sonidos
grabados o sintetizados, mientras que se utilizan técnicas
de simulación de espacios o salas para imitar el
carácter acústico de las grandes salas de
conciertos y otros espacios. Todas estas técnicas,
aisladas o combinadas, son de uso frecuente entre los compositores
de música electrónica.
Música por ordenador y música electroacústica
La música por ordenador se caracteriza por el empleo
de la tecnología digital. Si la música creada
mediante el corte y pegado de cintas utilizaba grabadoras
y dispositivos analógicos, los ordenadores almacenan
la información de forma digital, como números
que pueden manipularse mediante procesos matemáticos
usando programas informáticos. Desde la década
de 1960 los términos música electroacústica
y por ordenador se refieren, respectivamente aunque no de
forma constante, a la música analógica y a
la digital. Hoy esos términos se usan casi de forma
equivalente, dado que casi toda la música electrónica
utiliza ahora tecnología digital.
Son hoy muchos los compositores que escriben música
electrónica, en una gran variedad de estilos. En
alguno de estos casos la tecnología digital ofrece
la oportunidad de crear una música para cinta magnetofónica
que explore los sonidos del entorno natural. El compositor
francés Luc Ferrari ha escrito una serie de piezas,
Presque Rien nº 1-3, usando grabaciones directas de
los sonidos del mar o del campo. Otros compositores, como
Denis Smalley en el Reino Unido o el argentino Horacio Vaggione,
continúan la tradición de la música
concreta en la que los sonidos grabados son sometidos a
un procesamiento y una edición muy intensas. Este
tipo de música, en la que los sonidos grabados son
tratados como objetos sonoros abstractos, es conocido como
acusmática. Para compositores como el canadiense
Robert Normandeau es importante cómo se presenta
la música de cinta en una actuación. Su obra
Spleen (1993) ha de interpretarse con varios altavoces.
Avances futuros
La música electrónica es, con relación
a la música en general, un campo muy nuevo que ha
sabido adaptarse a los rápidos avances tecnológicos.
En años recientes ha habido enormes avances en la
tecnología interactiva y multimedia, de gran influencia
en el carácter de la música electrónica
y en su interpretación. La disponibilidad de cada
vez mayor tecnología de comunicaciones como Internet
y otras redes informáticas han permitido a los compositores
intercambiar programas de música e incluso sonidos
grabados. Si se observa este género de forma aislada,
tanto desde el punto de vista de los compositores como del
público, se apreciarán las diferencias tecnológicas
y estéticas con respecto a la música convencional.
Hoy son muchos los practicantes de este género que
ven la música electrónica como una parte del
todo que constituye la música. Muchas obras combinan
sonidos electrónicos y acústicos (instrumentales).
Buen número de compositores de este género
trabajan en colaboración con otros medios como el
vídeo, el cine o la danza. Quizá en el futuro
el término música electrónica desaparezca,
una vez que tanto la tecnología electrónica
como la informática estén plenamente integradas
en el mundo del compositor.
Un sintetizador es un aparato que genera y manipula sonidos
por medios electrónicos. Con este artefacto se pueden
crear nuevos sonidos así como reproducir los de los
instrumentos musicales conocidos. La forma de la onda generada
es alterada en su duración, altura y timbre mediante
el uso de dispositivos tales como amplificadores, mezcladores,
filtros, reverberadores, secuenciadores y moduladores de
frecuencia. El primer sintetizador apareció en 1955.
Fue desarrollado por Olsen y Belar en la Radio Corporation
of America (RCA) en Princeton. Estaba destinado a investigar
las propiedades del sonido, no a ser un instrumento musical.
Varios compositores se interesaron en ampliar las posibilidades
de producción de sonidos y en controlar todos los
aspectos de la música gracias a esta herramienta.
Entre ellos destacan Milton Babbitt, Marion Davido, Morton
Subotnik y Charles Wuorinen. El sintetizador más
conocido es el Moog, la primera máquina sencilla
indicada hasta para el uso doméstico, que recibe
su nombre del ingeniero estadounidense Robert Moog, quien
desarrolló el primer prototipo en 1964. Apareció
en la década de 1960. Se maneja con uno o más
teclados. Es posible crear un número casi infinito
de sonidos y combinaciones y pueden imitarse muchos instrumentos.
También pueden producirse sonidos que superan la
capacidad de los instrumentos convencionales y que se combinan
con los que captan los micrófonos. Además
de su utilidad en la composición, los sintetizadores
se utilizan para adaptar música instrumental, como
en las conocidas grabaciones de Johann Sebastian Bach que
Walter Carlos realizó en 1969. El sintetizador Moog
fue seguido por otros de diseño similar de empresas
como Buchla y Putney. Entre 1960 y 1980 se fabricaron aparatos
más reducidos que usaban microprocesadores, con lo
que se hizo posible la grabación digital del sonido.
Han utilizado estos instrumentos tanto músicos de
formación clásica como grupos de música
pop.
Fuente:
http://www.usuarios.lycos.es/bassound/