viernes, 16 de septiembre de 2016

Waves Audio's Nx Technology



Nx sólo está diseñado para el monitoreo. Lo insertas en el bus master cuando mezclas pero después tendrás que rodearlo antes de hacer el bounce de tu mezcla. A diferencia de un simulador de altavoces como el Focusrite VRM Box, Nx no intenta emular ningún monitor en particular. En vez de esto utiliza la tecnología psicoacústica para simular una sala de mezcla procesada libre de anomalías acústicas ; la teoría es que en un entorno prístino uno sea mejor equipado como para tomar decisiones en cuanto a la mezcla. La respuesta en frecuencias que se obtiene en Nx depende mucho de los auriculares así que más precisos son y mejor será el resultado. 
Nx puede operar en mono-a-estéreo, estéreo y 5.1 o 5.0 surround. Las dos configuraciones que más suelen utilizarse en el entorno de la DAW son la estéreo y 5.1.



Puntos fuertes
Puntos débiles
  • Crea un entorno de mezcla 3D con auriculares estéreo
  • La configuración surround permite mezclar en este formato con una DAW compatible
  • Simula un entorno de mezcla con tratamiento acústico
  • Precio increíblemente bajo por un plug-in tan potente
  • Altavoces virtuales que pueden moverse en el campo estéreo y girarse en 360 grados
  • Incluye un programa de seguimiento de movimientos de la cabeza para mayor realismo
  • Modo Baja Luminosidad en el programa WavesHeadTracker tiene que activarse manualmente cada vez
  • La configuración surround puede resultar confusa, y no hay suficiente información acerca de ella en el manual de usuario
  • Aumentar el ambiente del entorno reduce la inteligibilidad

domingo, 11 de septiembre de 2016

Cohetes y robots: los genios españoles que ponen sonido a la ciencia-ficción

Tres diseñadores de sonido que han trabajado en las escasas películas de ciencia ficción españolas nos cuentan sus asombrosos secretos para crear sonidos jamás oídos antes

El sonido de un proyector y el ruido de un televisor. Esos fueron los elementos que utilizó el famoso diseñador de sonido de 'La guerra de las galaxias', Ben Burtt, cuando tuvo que ingeniárselas para crear un zumbido que nadie había escuchado antes pero que ahora reconocemos hasta con los ojos cerrados: el blandir de los sables láser.
Ben Burtt es uno de los ídolos de Oriol Tarragó. Ganador de tres premios Goya (por 'El orfanato', 'Lo imposible' y 'El niño'), este diseñador de sonido es un referente en España de un campo desconocido para el gran público. También es uno de los pocos que han creado las texturas sonoras de las películas de ciencia ficción españolas, uno de los géneros más inexplorados por nuestro cine.
'Atrapa la bandera', la cinta de Enrique Gato que se llevó el premio a mejor película de animación en la pasada edición de los Goya, es una de ellas. Tarragó diseñó el universo sonoro de un film en el que se contraponen la puntera tecnología de un multimillonario que quiere apoderarse de la Luna y los aparatos de la misión Apolo XI con los que cuentan un veterano astronauta y su nieto. A todo ello hay que sumar el reto de trabajar en una película de animación en la que solo se parte, en un principio, del ‘storyboard’.


(Oriol Tarragó)
(Oriol Tarragó)
"Todos los computadores que hay en Houston, los botones dentro de la cápsula de la misión Apolo, el ruido de fondo de las máquinas, las puertas, las escafandras... tienen que sonar a mecánico, a analógico" explica Tarragó a Teknautas. Al mismo tiempo, debía lograr que esa tecnología de los años 60 sonara "amistosa, amigable, a trasto viejo, entrañable"
Lo consiguió, aunque no sin esfuerzo. Buscó vídeos reales de la época, pero la mayoría de los que encontró estaban en formato Super 8 y carecían de sonido. Así que decidió recrear el ruido de un antiguo ‘rover’, el vehículo robótico de la NASA, grabando el motor de una bicicleta eléctrica: "Tenía como ese sonido de cadena, de engranaje 'gri-gri'"http://widget.smartycenter.com/video/atrapa-la-bandera-clip-05/1738562/9221/1
Tarragó utilizó una estrategia diferente para los robots del perverso Carson: los generó con sintetizadores y notas de instrumentos virtuales para darles "esa connotación 'high tech' más agresiva".
También utilizó elementos y notas de sintetizador para diferenciar sonoramente el novedoso cohete del magnate e incluso recreó el sonido del helio-3, un isótopo ligero que se encuentra en grandes cantidades en la Luna y del que Carson pretende apropiarse.http://widget.smartycenter.com/video/el-disenador-de-sonido-oriol-tarrago-en-su-estudio/1738556/9221/1
En el film, esta posible fuente de energía del futuro está representada como un líquido verde que también debía tener su sonido creíble, original e impactante. "Lo hice con burbujas de agua grabadas bajo el agua y mezcladas con elementos eléctricos", indica Tarragó.
El sonido de la fábrica de Carson, en la que los protagonistas se desplazan por un largo tubo, también tiene su miga. Tras muchos quebraderos de cabeza, Oriol y su equipo encontraron un tobogán de hierro en Barcelona idóneo para la ocasión.

La personalidad sonora de los robots

Antes de llevarnos a la Luna, Oriol Tarragó ya nos había trasladado sonoramente al futuro de tintes 'retro' que propuso el director Kike Maíllo en 'Eva' (2011). "La premisa era hacer un sonido futurista pero naturalista, es decir, que el espectador captara los sonidos como cotidianos", detalla el diseñador de sonido. Pese a que en la película había varios humanoides y hasta el gato era robótico, la fantasía debía ser sonoramente cotidiana.http://widget.smartycenter.com/video/eva---trailer-final/1738557/9221/1
Los maullidos del minino o la voz del androide de compañía Max (Lluís Homar) no pasaron por el tratamiento digital para que el espectador los sintiera cercanos y contrastaran así con los sonidos de la aniñada máquina creada por el ingeniero que protagoniza el film, Álex (Daniel Brühl). Motores de los aparatos que encontraba e incluso instrumental de dentista sirvieron para que Tarragó diseñara un porvenir tecnológico y natural al mismo tiempo.
La representación de la memoria de las máquinas, plasmada visualmente como una intricada red de figuras que parecen de cristal, es una de las bellas sorpresas de la película. Ahora bien, ¿cómo debía sonar esa personalidad artificial? Tarragó utilizó 'Hand-up', un 'software' creado específicamente para la cinta, con el fin de componer el puzle. "Es una adaptación de lo que podrían ser neuronas pero sofisticadas y artificiales, tienen esa textura transparente y vidriosa", nos explica.

Diferentes piezas encargadas a un cristalero, bombillas, bolas de petanca, polvo cristalino en movimiento e incluso sal esparcida en una Coca-Cola fueron algunos de los elementos que grabó y combinó para crear el efecto de "contrapesos y acción-reacción" de esa memoria robótica. Los ruidos de los ordenadores de Álex, que beben de 'Blade runner' o 'Alien', proporcionaron el toque de retrofuturismo a la película.
Oriol Tarragó no es el único que ha ideado cómo sonarán unos robots cada vez más perspicaces. Gabriel Gutiérrez, el diseñador de sonido de 'Autómata', también hizo que los Pilgrims cobrasen una robótica vida en la gran pantalla en 2014.
La película producida y protagonizada por Antonio Banderas describe un futuro distópico, por lo que las máquinas que viven en él son (y suenan) anticuadas y decadentes. Los clásicos de la ciencia ficción ('La amenaza de Andrómeda', 'El planeta de los simios', 'Alien') sirvieron de inspiración a Gutiérrez. "La descripción que me hizo Gabe [Ibáñez, director del film] es 'tú piensa que esto en el fondo es como una aspiradora evolucionada'. Son criaturas de fibra, son domésticas, son imperfectas".http://widget.smartycenter.com/video/automata---trailer-espanol-hd/1738558/9221/1
Guiados por esa idea, grabaron servomotores, elevalunas y retrovisores de coche o pequeños motores para recrear los movimientos de cada robot. Registraron el sonido del interior de ordenadores antiguos para simular la capacidad de procesamiento de los humanoides con sus CPU y sus discos duros. Sonidos de engranajes y radiales, grabados en talleres mecánicos, también formaron parte del 'collage'.
Para conseguir aún más realismo, se desplazaron al Laboratorio de Robótica de la Universidad Carlos III de Madrid aprovechando que Concepción Monje, una de las investigadoras, era la asesora científica de la cinta. "Nuestra sorpresa fue llegar, poner un robot delante y decir qué chulo, suena como necesitamos", señala Gutiérrez.
TEO, el robot asistencial de la Carlos III, un humanoide de Honda o incluso un dron aparecen así en 'Autómata', si bien cada robot tiene una colección de sonidos particular para que escuchemos la forma de ser de cada uno y su "nivel de deterioro".http://widget.smartycenter.com/video/el-disenador-de-sonido-gabriel-gutierrez/1738559/9221/1
Poner voz a los autómatas fue una de las dificultades con las que se encontraron. Paradójicamente, el problema era que la tecnología actual está demasiado avanzada. "Utilizamos los algoritmos de las primeras etapas de las síntesis de voz que tienen esas características de la síntesis de voz tan especial, tan monocorde y tan interesante, como si estuvieras hablando con una calculadora antigua", destaca Gabriel Gutiérrez. La voz de Javier Bardem, aderezada con 'vocordes' de los años 60 y 70 y otros sonidos, dotaba de 'personalidad' a uno de los androides en un auténtico encaje de bolillos.

El apocalipsis también suena

Aunque los robots fueran los protagonistas de 'Autómata', el paisaje sonoro de una Tierra inhóspita tras una tormenta solar —el desagradable porvenir que plantea el film— era igualmente importante.
Nubes mecánicas, enormes recipientes metálicos que provocan la lluvia artificial sobre la ciudad, hacen que respirar sea posible en la cinta. "Tenía unas grabaciones de una imprenta que hacía diferentes sonidos y unas puertas metálicas bastante grandes. A base de procesar, empezamos a crear sonidos de gran tamaño", indica Gutiérrez.


(Gabriel Gutiérrez)
(Gabriel Gutiérrez)
También debían lograr que el desierto por el que Antonio Banderas camina con las máquinas sonara a "silencio radiactivo". "Tenemos una colección de vientos que hemos grabado en el desierto del Sáhara, un lugar idílico para grabar viento", explica Gutiérrez. Añadieron sonidos de guitarra analógicos para conseguir esa capa de radiación que necesitaban las escenas de su distopía.
También fatalista era el destino del universo planteado en la ópera prima de F. Javier Gutiérrez, 'Tres días' (2008). El secretario general de la ONU anuncia que un gigantesco meteorito se estrellará contra la Tierra en setenta y dos horas y el pánico cunde entre los habitantes de un pueblo remoto.
La singular mezcla de ciencia ficción y 'thriller' se llevó el premio Goya a mejor sonido. Jorge Mira, encargado del diseño de sonido, tiró de creatividad para hacer maravillas con los efectos que consiguió casi exclusivamente a través de bancos de sonidos.http://widget.smartycenter.com/video/tres-dias---trailer-final/1738560/9221/1
"El espacio es inconmensurable e imaginarte ahí fuera, sobre la pala del satélite, tiene que ser bastante acojonante. El motivo de poner un grave lo he oído en otras películas y me mola". Así explica Jorge Mira su inspiración para evocar un espacio amenazador en la potente primera escena de la cinta.
El destructor meteorito hace su aparición en diferentes secuencias. En una de ellas tenía que ser especialmente violento, por lo que el diseñador de sonido utilizó un fragmento del saturado despegue del Challenger ("importa mucho si le pones al sonido una capa de algo que te resulta familiar"), el sonido procesado de una cabina de avión, una hoguera lejana y unos cuantos ecos al revés para dar un "efecto de succión".
Invertir el patrón de los sonidos para generar una "sensación de intranquilidad" es uno de los trucos que repitió en la cinta."Cuando hay algo al revés, tu cerebro te dice que no es normal", detalla Mira.


(Cristina Sánchez)
(Cristina Sánchez)
En otro momento, el meteorito tenía que sonar mucho más efectista, por lo que una combinación de varios aviones de caza cumplieron su objetivo. "Ese meteorito quiero que sea chulo, impactante, sorprendente, sé como mi cabeza dice que va a sonar, pero de alguna manera tengo que hacer que se sonido no sea como te lo imaginas", señala en alusión a su proceso creativo. "Me gusta lo metálico de 'La guerra de las galaxias', la aspereza de 'Alien', la fluidez y el empaque de 'Esfera'..." Una combinación de influencias que están presentes en el film.
Los directores y guionistas Àlex y David Pastor no idearon un mundo próximo a su fin por culpa de un cuerpo celeste en 'Los últimos días' (2013). En su caso, un misterioso mal se extiende por todo el planeta, impidiendo a los humanos (Quim Gutiérrez, Marta Etura o José Coronado) salir al espacio exterior.http://widget.smartycenter.com/video/los-ultimos-dias---segundo-trailer-oficial-hd/1738561/9221/1
En la película conviven la Barcelona del pasado, dominada por el bullicio y los ruidos del tráfico, y la Ciudad Condal enferma del presente, en la que no se oye ningún sonido exterior a excepción de los pájaros. Oriol Tarragó también fue el encargado de crear esa oposición sonora y de inventar cómo se oiría una ciudad completamente detenida, en la que los ciudadanos se desplazan por los túneles subterráneos de metro.
"En Barcelona hay unos depósitos de agua fluvial gigantescos y esos depósitos cuando hay grandes lluvias se llenan para que la ciudad no se inunde. Ahí grabamos gritos y disparos, elementos como de lejanía para generar esas atmósferas de interior", detalla Tarragó.
El espectador también tenía que captar con sus oídos la angustia de los ataques de agorafobia que sufren los mortales cada vez que intentan salir de un edificio. "El ruido de los coches y las ambulancias lo amplifico de tal manera que eso crea una especie de 'flash' y sordera que asfixia a los personajes. Cogí todos los sonidos y los retorcí de alguna manera para generar esta intención de que el ambiente me ahoga", señala este maestro del diseño de sonido. Además, añadió otras capas más agudas para generar una especie de "sordera amplificada".
"Lo más importante es que la gente se meta en la peli y se lo crea y no se pregunte cómo han hecho esto", sentencia Gabriel Gutiérrez. Si estás entre los que alguna vez se habían planteado cómo la ciencia ficción se hace oír, seguro que ahora aprecias más una tarea tan titánica como sorprendente.

jueves, 11 de agosto de 2016

The Foundry’s 2016 Showreel

Our 2016 showreel features amazing work created by some of our very talented customers over the past year. As always, we would like to say a huge thanks to them all for making us look good!
All of the projects featured were made with the use of one or more products from our portfolio: NUKE STUDIO, NUKE, MARI, MODO and KATANA. Visit our product page to check out all of our software solutions in more detail: ow.ly/4mPSdc
Music by Scott Nixon @ SNM facebook.com/ScottNixonOfficial soundcloud.com/scottnixonmusic 
Edited by Matthew McKinnon EditMSM.onfabrik.com

The Foundry's 2016 Showreel from The Foundry on Vimeo.

viernes, 17 de junio de 2016

The Secret World of Foley, un cortometraje que captura la magia de los artistas de efectos de sala


Del foley a ratos es difícil hablar. Es un arte que más que sostenerse por tratados y formas esquemáticas, perdura en pocos estudios donde se conserva una tradición que ante todo es fiel muestra del amor al sonido, al movimiento, a la sutil magia que sucede en cada transición de la vida, entre los segundos.
El arte del foley, como anteriormente hemos explorado, consiste en la recreación de muchos sonidos de la película a partir de efectos de sala que se reproducen en tiempo real por actores que, además de su habilidad para sincronizarse con lo que sucede en pantalla, son ante todo oyentes asombrosos, capaces de aproximarse al mundo no necesariamente por su materialidad, sino ante todo por su vibración acústica y el inevitable éxtasis de los sonidos acusmáticos, aquellos desprovistos de toda relación con el “mundo real”, por ende con infinita posibilidad de serlo todo en la película.

Es una habilidad también desarrollada en los montadores y diseñadores, sin embargo en el artista foley hay un juego especial, que quizás comparte todo el cine al crear ilusiones de una forma tan sutil. La forma como escuchan estos artistas es fascinante, porque tratan al sonido libre del peso de la materia, al tiempo que reconocen constantemente la capacidad acústica de la misma. Sin embargo, el foley permite ir más allá de la mera relación acústica, en tanto ahonda en la acusmática, en la situación mental y las posibilidades de escucha. Esto se refleja a la hora de utilizar materiales: algunos se recrean literal con respecto a lo que se ve en pantalla, pero otros, surgen de los objetos y relaciones más sorprendentes, inimaginables.
Dada su invisibilidad y secreto en la creación de la película, los artífices del foley siempre danzan tras el telón. Nadie los ve y a nadie les debería interesar a la hora de presenciar una película, dado que su labor no debe dejar rastro del artista, y como el diseñador de sonido, ha de eliminarse, para que todo se sienta natural. Sin embargo, esto no implica que no atendamos a la belleza que se oculta tras bambalinas porque siempre es increíble detenerse a contemplar el arte del foley, lo cual ha logrado el director Daniel Jewel en su cortometraje The Secret World of Foley (El mundo secreto del foley), donde le rinde tributo a este bello oficio en gran medida en extinción. Veamos:

The Secret World of Foley from Short of the Week on Vimeo.
En el vídeo se crea un retrato de dos artistas que actuan a duo para el filme: Sue Harding, quien descubrió el foley a los 11 años y cuenta créditos en cientos de películas y el veterano Peter Burgis, cuya lista de trabajos previos sobre pasa los 150 largometrajes. Lo grandioso es que en el vídeo nunca hablan, limitándose a compartir su arte, tan silencioso como sonoro, tan meditativo como activo, tan sutil como evidente. Es un constante recorrido por la inmensa imaginación aural y la vasta riqueza de timbres que, articuladas a la exploración del movimiento y el performance, construyen una expresión original, digna de este desconocido y algunas veces poco valorado arte.
Tal vez más allá de lo sorprendente, de lo informativo y lo bien logrado del corto no es únicamente el hecho de reconocer la importancia del arte del foley, sino ante todo, de saber que las películas son sonoras, que hay mundos invisibles deambulando en los recovecos del tejido audiovisual y el hecho de edificar la película sonora, es ante todo vivirla. Al artista foley por algo lo llaman también actor, porque desarrolla un papel, un rol. Ejecuta mucho de lo que percibimos, es responsable de profundas relaciones en la oscuridad de lo invisible. Esto es porque además de los actores y objetos que vemos en la gran ilusión de la pantalla, las películas se escuchan.

viernes, 26 de febrero de 2016

Músicos con discapacidad logran crear música con su cerebro y la tecnología

Nos levantamos de la cama sin saber si el día será el último para poder interpretar un instrumento, grabar un sonido o manipularlo. Difícil saber que tanto valoramos nuestro quehacer y la oportunidad de dedicar nuestros días a la música, eso lo sabrá cada quien. 
¿Qué haría el violinista, si por alguna razón, un accidente de la vida lo deja incapacitado para volver a deslizarse sobre las cuerdas de su instrumento? ¿qué sería del compositor si no pudiera mover sus manos ni usar su voz para bosquejar sus sinfonías?
Realmente no necesitamos suponer las historias, porque hay quienes han pasado por tan difíciles momentos y hoy, gracias a la tecnología, pueden volver a componer e interpretar la música, así sea desde formas que antes no habrían tal vez imaginado, como es el caso de cuatro músicos que protagonizan una corta nota de la BBC, quienes no pueden hablar o moverse, pero gracias a una nueva tecnología desarrollada en colaboración entre la universidad de Plymouth y el Royal Hospital de personas con discapacidad neuronal, han podido volver a crear música.
La tecnología en cuestión permite leer determinada actividad psico-eléctrica del cerebro y utilizarla para crear piezas musicales. Consiste en un sistema donde integran una serie de luces junto con fragmentos de partituras musicales. Esta información se emite al músico, quien va enfocando y seleccionando elementos. Un sistema anexo rastrea constantemente el proceso neuronal y, en la zona trasera del cerebro donde se registra actividad visual, se transforma toda una serie de registros y formas musicales.
Como comentan en el vídeo, el sistema además de identificar los patrones musicales en los que se enfoca la percepción, permite asumir ciertos valores de amplitud a partir de la intensidad del foco de atención, generando una posibilidad de dinámica a la pieza, la cual es ejecutada por un intérprete que lee los datos emitidos por un computador conectado a cada compositor.
Aunque claramente altera el proceso de composición y no se ha de comparar con lo que sería normalmente crear música, es un impresionante y conmovedor experimento donde se está regalando pura vida: darle de nuevo a alguien la posibilidad de componer e interpretar un instrumento, en un momento donde había perdido la oportunidad de hacerlo es sin duda un meritorio desarrollo que demuestra el profundo impacto de la tecnología, que en este caso, se concibe a futuro como una herramienta que permita trabajar con pacientes que tengan diversas necesidades, buscando así expandir el proceso ya iniciado desde lo musical.

viernes, 4 de diciembre de 2015

Review de Spectrasonics Omnisphere 2: un universo en expansión


Desde su aparición en 2008, Omnisphere es uno de los sintes software más reverenciados y premiados. La variedad de técnicas de síntesis que agrupa y la complejidad de los resultados que permite conseguir lo han hecho brillar en ámbitos y estilos bien diferentes, pero siempre con la palabra síntesis en primer plano y con orientación hacia los sonidos más orgánicos y creativos. Es un producto maduro y del que sorprende su estabilidad, demostrada por el mantenimiento en la v 1.5 desde 2011, frente a los continuos upgrades (y correspondientes desembolsos) de otros. Estabilidad que no le ha impedido seguir siendo el preferido de muchos usuarios a pesar del paso del tiempo.
En 2015 ha llegado su v2 (desde hace poco 2.1) que introduce mejoras diversas y de calado pero manteniendo la forma de uso y una mayoría de las funciones tal como ya eran conocidas. Novedades que veo irrenunciables para cualquier usuario de las versiones anteriores, además de ser argumento adicional para convencer a nuevos interesados.
La más llamativa sin duda, la posibilidad que ahora se ofrece de utilizar una muestra aportada por el usuario como material base para la creación de sonidos. Por sí mismo, sólo eso justifica el salto a v2, aunque hay mucho más. Ya publicamos en su momento una versión subtitulada del vídeo oficial de presentación de novedades en v2, pero teníamos pendiente nuestra propia ‘review’ que se desarrolla en este artículo y de una forma más práctica, en el vídeo que la acompaña.

Qué es Omnisphere

Con motivo de la v1, Soyuz preparó un detallado artículo. Los elementos troncales de Omnisphere siguen siendo los mismos.
La arquitectura básica de Omnisphere
Su arquitectura se basa en ‘MULTIs’ que agrupan hasta 8 partes (PART) simultáneas, un poco al estilo de lo que en sintes hardware se suelen llamar sonidos y combinaciones (Korg), patches y performances (Roland), y otros pares de nombres semejantes.
Cada una de las 8 partes usa un sonido (PATCH) compuesto por dos capas (LAYERS) A  y B, siendo cada una de ellas en esencia un sintetizador completo que puede usar una forma de onda artificial (pulsos, dientes, y un largo etc.) o bien un ‘soundsource’ (el nombre que reciben aquí las muestras grabadas de sonidos reales, puestas a disposición de una interpretación desde teclado). El nombre de ‘soundsources’ es una acertada manera de distanciarse del concepto más habitual de ‘samples / muestras’, puesto que a menudo en Omnisphere son un material audio de partida más pensado para deformarlo hasta el extremo que para exponerlo en bruto. Por supuesto no faltan grabaciones de sonidos como voces (variadísimas: coros, sílabas jazzísticas, efectos vocales, frases…), vientos, cuerdas, guitarras y pianos acústicos y eléctricos, percusiones, y demás elementos del día a día, pero es en el terreno de ‘otros’ donde Omnisphere gusta de presumir. No necesariamente una grabación de ‘notas’ o instrumentos tradicionales, entre los soundsources abundan objetos atípicos e instrumentos interpretados de formas nada convencionales. Todo vale con tal de conseguir que esas semillas sonoras tengan una personalidad y diferenciación que las sitúe aparte de lo habitual.
Estas fuentes/osciladores atraviesan en cada capa un filtrado doble (serie o paralelo) y extremadamente configurable, pudiendo elegir de una larga lista de modelos de filtro. Pero ya antes de atacar a los filtros, en los propios generadores de señal (los osciladores/soundsources) se dispone de transformaciones muy significativas aplicando técnicas como PWM, Sync, FM, Ring, distorsión por Waveshaping, reducción de bit y de frecuencia de muestreo, Unison, Granular, Armonización, todas ellas ampliamente ajustables y que actúan nota a nota, polifónicamente (nada que ver por ejemplo con una distorsión única que fuera atravesada por la suma todas las voces y sonidos). La ruta audio es estéreo desde el comienzo (lo son tanto las fuentes como los filtros, no es algo añadido por mera panorámica en la mezcla). Así por ejemplo el uso de 'unison' en los osciladores permite distribuir las voces generadas llenando el espacio.
Es posible insertar efectos (con un enorme abanico) en las capas individuales (apilando hasta 4 efectos en cada), o realizar envío desde cada una de ellas hacia otro juego de efectos común al patch. Adicionalmente a nivel patch existe también un grupo de efectos de inserción. Sumando resultan hasta 16 efectos simultáneos por patch. También se cuenta con envíos desde las 8 partes hacia 4 juegos de hasta 4 efectos auxiliares globales, además de otra cadena configurable de 4 efectos en la salida máster, y no falta una vista ‘mezclador’ en la que regular la combinación de las 8 partes y esos 20 efectos comunes a ellas.
Cualquiera de los parámetros de todo ese repertorio de posibilidades en las fuentes, los transformadores, los filtros, los efectos… puede ser ampliamente modulado jugando con LFOs y envolventes, con controles MIDI, con automatización en un DAW,… siendo factible la creación de envolventes arbitrariamente complejas que pueden ir desde la sencillez de un enfoque ADSR a la personalización máxima de envolventes multisegmento, cíclicas, basadas en patrones a tempo, etc.
Se dispone en cada patch de 6 LFOs y 4 ENVs compartidos para ambas capas, más adicionalmente envolventes dedicadas para la amplitud y para el filtro específicas para cada capa. Del juego de 6 LFOs y 4 ENVs comunes, el último de cada especie (LFO 6 y ENV 4) admite un modo ‘polifónico’ en el que su actuación es individual sobre cada nota. Los otros 5 LFOs y 3 ENVs son siempre ‘globales’ y afectan en común a todas las voces simultáneas: si os sorprende a veces una actuación ‘parafónica’ de una envolvente de modulación lo que hay que hacer es montar esa modulación usando la ENV4 para poderla aplicar en polifónico.
Multi y sus modos
Volviendo al modo ‘MULTI’ en el que se combinan 8 partes / patches diferentes, esas 8 partes pueden estar asignadas a canales MIDI diferentes, o bien combinadas en ‘stack’. El modo‘stack’ permite crear zonas y fundidos definidas por notas, o por velocidad o bajo control de un mensaje de controlador MIDI. Destaco el ‘o’ porque sólo uno de esos criterios (notas, velocidad o CC) puede ser usado dentro de un multi para controlar la combinación. En caso de querer ir más allá tocará introducirse en el diseño de cada patch para mediante modulación controlar la actuación de la velocidad o un CC como complemento a la división/apilamiento por notas que realicemos en ‘stack’.
Alternativamente las 8 partes pueden activarse y controlarse con especial facilidad desde el modo ‘Live’ a modo de una preselección de timbres con los que desarrollar cada tema musical en una actuación en directo. Live aporta el apoyo de una pantalla específica o bien el control con las apps OmniLive y Omni TR que actúan como controlador remoto desde iPad. Existen en ese modo Live (y desde OmniTR) funciones para regular niveles, pasar de uno a otro sonido, silenciar/activar partes, etc. especialmente útiles en vivo.

Las razones de un éxito

Para mi gusto tres son las patas en las que Omnisphere ha logrado articular su éxito en el pasado:
1) Potencial de síntesis: la variedad de técnicas de síntesis y tratamientos que concentra en un solo producto es enorme. Los hemos comentado brevemente en el apartado anterior y en el vídeo. Son muchos los recursos puestos a disposición de la creación de sonidos.
2) Interfaz de uso: ese enorme potencial y concentración de funciones ha sido ya alcanzado por otras herramientas, pero Omnisphere acierta a expresarlo en una interfaz de usuario particularmente simple y concebida para músicos. La creación y modificación de sonidos se realiza con comodidad por cualquiera habituado a arquitecturas tradicionales de sintetizador, sin necesidad de ponerse el gorro de técnico/programador. En otros productos la avalancha de funciones las acaba ocultando para el usuario medio, que se acaba limitando a usar sonidos ‘de librería’ sin editarlos. Omnisphere, lejos de amedrentar, ofrece una arquitectura y un interfaz muy asequibles a cualquiera, que animan a retocar/crear los sonidos para adaptarlos a cada proyecto.
3) Librería ‘peculiar’:  tanto en cuanto al material muestreado como a los sonidos programados de origen, el énfasis de Omnisphere se distancia del de otros muchos productos. No es el lugar en el que encontrar sonidos hiper realistas de instrumentos acústicos, orquesta, etc. con grabaciones multicapa y multiarticulación. Las librerías de sonidos realistas multimuestreados encuentran mejor acomodo en sistemas como por ejemplo Kontakt o UVI. Pero cuando se tiene vocación e interés por los sonidos más creativos e imaginativos a través de una aplicación intensiva de los conceptos de síntesis y procesamiento de sonido, desde una interfaz amigable, es ya un lugar común que Omnisphere está en el Olimpo.
En esas tres áreas incide la v2 de forma significativa.

Novedades v2 respecto al motor de síntesis / procesamiento

En el caso de no usar en una capa ‘soundsources’ (muestras) sino formas de onda sintéticas, las 4 formas de onda clásicas anteriores ascienden ahora a un repertorio de 400. Se incluyen formas de onda monociclo de todo tipo: resonantes, vocales, robadas de toda suerte de instrumentos electrónicos y acústicos, creadas artificialmente, combinaciones peculiares de armónicos,etc. Están por ejemplo presentes ciclos capturados de sintes que van desde clásicos Moog, Roland, Korg, Yamaha… hasta los Access Virus u otros más recientes.
Hay también tablas de onda (a lo PPG) que podemos recorrer dinámicamente y entre las que algunas son de tipo fluido como otras de tipo saltos tímbricos abruptos.
De hecho también las formas ‘monociclo’ son en realidad también ‘wavetables’ que ofrecen (a través del control ‘shape’ y su modulación) variaciones significativas que pueden recordar la PWM o bien imponer alteraciones que dan nuevos colores sobre las formas de onda de partida. Si escogéis por ejemplo el diente de sierra del Juno-106 (uno de los muchísimos dientes ofrecidos), la forma original es sólo la primera de las ondas cargadas en su wavetable en la que ese diente se tortura para transformarlo en todo un abanico de posibilidades bien alejadas del original, con un recorrido tan denso en pasos que ofrece una buena sensación de continuidad en el cambio, sin efectos ‘escalera’.
Aunque ya se contaba con todo un arsenal de filtros con diferentes pendientes y caracteres, aparecen 8 más nuevos, incluyendo resonadores y filtros vocálicos/de formantes.
Se mejoran muchos de los apartados de transformación en el bloque de osciladores, en el que están, como decíamos, FM, Ring, o Granular, entre otros. Reciben parámetros nuevos y extienden el rango de los preexistentes. Tomemos el ejemplo de la sección FM, en la que cabe destacar que no se trata de una FM a lo Yamaha DX. Es más bien el tipo de FM que era factible en los sintetizadores analógicos: modular con un segundo oscilador la frecuencia de nuestro oscilador principal. Una FM limitada por tanto a un par moduladora -> portadora, pero que en v2 se beneficia de un grupo de controles que permite definir con mucho detalle la forma de onda que usará la moduladora. Se dispone también de un control ‘analog drift’ que introduce variaciones erráticas para que las combinaciones de varias notas tengan esa variedad que agradecemos en los sintes analógicos.
A día de hoy inseparable la cuestión síntesis de la relativa a efectos, terreno en el que v2 añade 25 tipos nuevos. También crece en número de efectos aplicable. En cada ocasión en la que podemos incorporar efectos, tenemos en realidad todo un ‘rack’ en el que alojar 4 unidades diferentes concatenadas entre sí. Y racks no faltan: los hay como inserción en cada capa, también otro insertado a nivel patch (actuando sobre la mezcla de las dos capas) y aún queda otro como envío (pre/post) todavía dentro de cada patch. Sin olvidar que existen 4 racks para envío como auxiliares desde el multi, más un último rack en la salida máster. Siempre vigilando el uso de la CPU que es fácil llegar a comprometer en los ordenadores menos capacitados con tanta abundancia.
También importantísima la cuestión de las rutas de modulación posibles, v2 las amplía hacia los efectos y el arpegiador.

Novedades v2 respecto a la librería

Crece el número de ‘soundsources’ oficiales, recogidos en una librería que ronda ya los 65GB (frente a los 40 de la anterior). Y también en parecida proporción el número de sonidos (patches) disponibles en la biblioteca que viene de origen, superando los doce mil. Incluyen una nueva parcela específica hacia sonidos enfocados a estilos EDM que a día de hoy no puede faltar, y en la que se hace despliegue de las enormes posibilidades de enriquecimiento tipo unison/harmony, los LFOs y envolventes multisegmento ligadas a tempo, o los sonidos marcadamente efectistas en cuanto a timbre. Una característica pocas veces recordada de omnisphere es que sus filtros son siempre estéreo, con lo que la función ‘unison’ puede distribuir en el panorama las distintas voces, sin que el filtrado tenga que reducirlas a una versión mono, algo bien agradecido en esos sonidos tan densamente apilados.
Entre los soundsources exóticos que son tan abundantes en Omnisphere, se han incorporado materiales grabados por Diego Stocco, de cuyas peculiares técnicas hemos hablado directamente con él hace un par de años en esta entrevista.
Pero la novedad más rompedora es la posibilidad que ahora se ofrece de utilizar una muestra aportada por el usuario como material base para la creación de sonidos. Por más que la imaginación de Spectrasonics les haya llevado a grabar toda suerte de objetos atípicos para obtener así unas raíces peculiares sobre las que edificar  sonidos en sus bibliotecas ‘de fábrica’, el paso natural y más demandado era abrir al usuario la posibilidad de añadir material propio. Es difícil rivalizar con la imaginación, los recursos y calidades que Spectrasonics pone a la hora de registrar sus ‘soundsources’. Pero introducir nuestro propio material audio directamente en forma de ‘soundsource’ es sumamente interesante.
Es importante recalcar algo en relación con los ‘soundsources’ de usuario: sólo se puede manejar una muestra por cada capa (A o B) dentro de un sonido. No hay multimuestreo ni en velocidad ni en extensión del teclado. Esta restricción se entiende desde la perspectiva de no competir en el mercado de librerías de sonidos realistas, sino en esta otra esfera de los sonidos creativos / sintéticos.
 
De hecho los propios soundsources oficiales de Spectrasonics reflejan esa característica. En varios de ellos se puede apreciar la existencia de multimuestras con grabaciones repartidas por el teclado o en velocidad. Pero nunca es con la densidad que en otros sistemas se alcanza porque muy pocas veces el objetivo es el del realismo. Se trata más bien de ofrecer las cualidades de los sonidos naturales y acústicos para ser integrados a modo de oscilador/fuente en el entorno de procesamiento que ofrece Omnisphere.
Si nos salimos del terreno de los sonidos para interpretación de notas, algunos de los soundsources con mayor ‘personalidad’, como pongamos por caso, una frase hablada, sólo cuentan con una única muestra y sólo pueden usarse en un pequeño registro antes de deformarse con gravedad (excepto con la aplicación de técnicas granulares que extienden el uso sin tanto efecto ‘pitufo/ogros’ ni cambios de duración). Pero se trata muchas veces de ‘soundsources’ que actúan más como efecto que como instrumento. Hay igualmente algunos soundsources previstos directamente para crear un fondo sonoro, no necesariamente para la interpretación de notas.
Es esta cuestión por la despreocupación por el multimuestreo, algo que en cierta medida me recuerda a lo que aplicaban los primeros samplers y romplers en los 80. Especialmente me viene a la memoria el D50, del cual el responsable máximo de Spectrasonics es bien conocedor (trabajó para Roland en aquellos momentos) y que, como Omnisphere ahora, aportaba frescura y novedad para los oídos. Tanto en el D50 como en Omnisphere, las muestras (aquí soundsources) son una excusa para extender la síntesis, no deben entenderse necesariamente como un objetivo en sí mismas.
No busquéis un piano de cola, o una trompeta con calidad ‘fotográfica’ en Omnisphere. Pero os diré también que uno de mis mejores clarinetes sintéticos lo creeé con omnisphere. En la v1 usaba un pulso y las excelentes posibilidades de modulación para conseguir un clarinete reactivo y expresivo que corría continuamente y con gracia desde la sonoridad flaca y hueca propia de las intensidades flojas a medias, hasta alcanzar un ya quebrado forte. Le faltaba el ruido/golpe de la llave del clarinete, y ahora se lo podré añadir con las muestras de usuario en v2.
No lo tomemos pues, pese a las muestras de usuario, como un sampler, pero sí como un potente recurso para seguir extendiendo su uso como sinte hacia más amplios terrenos.

El nuevo motor granular y las muestras de usuario

Quiero hacer una mención especial a la cuestión granular en Omnisphere. Se anuncia con v2 a bombo y platillo lo granular, aunque es algo que ya estaba presente en v 1.5 con un alcance parecido. Cierto es que crece en parámetros con la nueva versión y se nota un mayor recorrido y definición en varios de ellos que permite lograr resultados antes inalcanzables. Son más los cambios de lo que el aspecto de la pantalla revela y permiten aplicar con éxito técnicas de ‘grano grande’ para sonidos un tanto quebrados y efectistas, como las más sutiles de ‘grano fino’ para conseguir resultados de texturas o de mero cambio de tono.
Pero principalmente es importante recalcar la presencia de tratamientos granulares cuando se combina con otro de los puntos fuertes de la v2: la posibilidad de incorporar / procesar muestras de usuario. La combinación de los tratamientos granulares mejorados y las muestras de usuario es, sin duda, toda una invitación a la exploración en esta v2, permitiendo tomar como semilla para la creación de texturas y fondos el propio material sonoro grabado al que vayamos a acompañar. ¿Qué mejor forma de empastar un fondo ambiental para acompañar una guitarra que tomar una nota o una frase de la misma y torturarla granularmente? O pensad en obtener una textura de coro a partir de una intervención grabada por un cantante. Quien dice eso dice tomar un patrón de batería o un sonido de un instrumento acústico exótico que aparezca en nuestro tema y procesarlo con el poder de tratamiento de Omnisphere. Esas cuestiones tan personalizadas, sin tenernos que restringir a los soundsources de la propia Spectrasonics, es ahora afortunadamente posible, y aplicar el motor granular es una de las vías que puede derivar mayores disfrutes sobre muestras de usuario.

Novedades v2 respecto al interfaz de uso

Los usuarios de las versiones anteriores no tardarán en apreciar que la pantalla de Omnisphere ha crecido con un área enteramente nueva a la izquierda. Por defecto aparece en ella un resumen del selector/buscador de sonidos. Pero es un área que cambia de contenido al editar una ruta de modulación: podremos ver allí un juego de parámetros relativos a la definición y aplicación de la ruta, así como al parámetro afectado, haciendo más cómoda la creación y ajuste de las rutas de modulación.
Pese a que ya eran potentes en v1, mejoradas mucho las funciones para organizar/localizar sonidos.  Además de las diferentes categorías con las que se puede calificar / buscar un sonido, cuenta ahora con una útil posibilidad de buscar sonidos ‘semejantes’ al que tengamos seleccionado, que es eficaz en localizar sonidos que puedan encajar como reemplazo / alternativa a uno dado. Esencialmente busca en la base de datos de sonidos aquellos que puedan tener una mejor coincidencia en sus descriptores/categorías, y los ofrece en una lista para poderlos escuchar como posible reemplazo del sonido que teníamos previamente elegido.
Útil también, muchísimo, la posibilidad de fijar algunos parámetros cuando cambiemos entre diferentes sonidos. Por ejemplo cuando hayamos creado un patrón de arpegiador que deseemos probar con diferentes timbres, podemos fijar la sección referida al  arpegiador. O cuando nos guste el encaje con el tema musical de las envolventes que hemos creado pero queramos buscar otros colores tímbricos. O cuando deseemos congelar los efectos para estar seguros de que no se pierde el carácter de distorsión+reverb al probar otros patches. Es una idea que debería extenderse como la espuma en el resto de los desarrolladores.

Un mercado naciente de librerías para Omnisphere

La creación (exportación e importación) de bibliotecas de sonidos por terceras partes, es especialmente sencilla con la reciente mejora en v 2.1 que permite conservar en único fichero de intercambio todo lo necesario (muestras de usuario incluidas). De hecho están ya apareciendo comercialmente a buen ritmo librerías para la v2 de Omnisphere, en muchas de las cuales se incorporan nuevos soundsources.
En alguna de estas nuevas librerías, como forma de superar la limitación a una única muestra de usuario, se combinan en un multi varias partes, cada una contribuyendo muestras diferentes para poder tener una especie de ‘multimuestreo’. Es el caso de megamagic pads, la primera de este tipo de la que tuve noticia. Un truco que puede seros útil cuando diseñéis vuestros propios sonidos en Omnisphere v2, si se viera necesario.

Novedades en modo Live y en el arpegiador

Quiero mencionar dos novedades que agradezco especialmente, puesto que son las dos cosas que eché más en falta en la versión anterior, y que ahora están atendidas.
Una es que se permiten en el modo Live divisiones de teclado. Un ‘Multi’ que active el modo ‘Live’ es realmente útil para gestionar con facilidad hasta 8 patches durante un tema. Pero en versiones anteriores los sonidos que activábamos desde Live se extendían por el teclado completo. En v2, Live puede usar información del modo Stack para completar un sistema en el que cada uno de los 8 sonidos se restrinja a determinadas zonas de teclado.
Respecto al arpegiador, destacaré que en la versión anterior era estrictamente eso: un arpegiador. Para poder disponer de varias notas dentro de la frase creada había que pulsar las correspondientes teclas. En no pocas ocasiones hubiera querido que el arpegiador admitiera un modo de tipo ‘secuenciador de frase/patrón’ que permitiera lanzar un patrón de notas desde una sola tecla (pudiendo transponerlo pulsando una segunda tecla). Pensad en ese acompañamiento de tres notas que casi como un ostinato acompaña el tema central de Blade Runner, o el patrón de ‘I feel love’ de Giorgio Moroder / Donna Summer. Algo tan simple como disparar ese patrón desde un solo dedo, me llevó en la v1 a tener que crear unas envolventes a tempo que simularan ese efecto. Ahora es todo más sencillo: el arpegiador permite definir un ‘offset’ o intervalo para cada paso respecto a la nota que le tocaría ejecutar en un arpegiador ‘puro’. Con eso podemos crear patrones disparados desde una única nota, y podemos transponerlos con facilidad, haciendo del arpegiador un útil secuenciador de frases.

Conclusiones

2015 nos ha traído la llegada de una v2 en la que más que revolución o renovación hay que hablar de expansión. Difícil de concebir cuando el universo que abarcaba era ya tan vasto en sus orígenes. Pero un lustro después respecto a la v1.5 anterior, Spectrasonics ha sabido añadir y crecer en funciones respetando globalmente la filosofía y extrema usabilidad de todo un clásico, a la vez dando un salto que amplía muchísimo su territorio. Esta v2 refuerza los pilares que han hecho mayoritario favorito a Omnisphere durante años. El precio es aprox. de 400€ para nuevas licencias y de 200€ para el upgrade.
Interesantísimo y muy enriquecedor el despliegue de nuevas formas de onda (tanto sintéticas como nuevos ‘soundsources’), y el crecimiento de alternativas para los efectos. Como función radicalmente nueva ¡por fin! la posibilidad de incorporar muestras de usuarioaunque sea con la limitación de muestra única (sin zonas de teclado o velocidad) que no lo es tanto en el enfoque/filosofía de Omnisphere, lejano al interés de servir de mero sustituto creíble de instrumentos acústicos, sonidos orquestales, etc. para lo que ya están los reproductores de librerías más convencionales.
Cierto que la competencia no ha estado dormida, y p.ej. UVI con su reciente Falcon (que también presentaremos en breve) ofrece una alternativa bien potente en términos de síntesis, pero lo extenso y peculiar de la librería que acompaña a Omnisphere (y que Falcon exige adquirir aparte) y su forma simple de ofrecer acceso a lo complejo le aseguran mantener fiel a su parroquia aunque se les exija un ‘upgrade’ que llega tras tan largo plazo sin él. Los que buscáis un nuevo sinte software, también debéis considerarlo: no se mantiene alguien en la cumbre tan largo tiempo sin razones de peso.
El respeto por su propia tradición, hace que Omnisphere v2 no avance en algunas cuestiones que pueden extrañar al recién llegado. Por ejemplo,¿porqué limitar a 8 partes y no a 16? O ¿porqué mantener el que sólo uno de los 6 LFOs y sólo una de las 4 ENVs libres admitan el uso polifónico? Pero si vamos más allá de la crudeza vil de los números y pensamos en el uso real que hemos de dar a este tipo de herramientas, encontramos que el balance de posibilidades es acertado. Ir más allá en flexibilidad acaba tantas veces por oscurecer el camino para alcanzar los resultados, que Omnisphere está, me da la impresión, defendiendo el interés por mantener una usabilidad que anime a explorar sus posibilidades, sin amedrentar. Omnisphere es un buen compromiso para alcanzar complejidad en los resultados sin perder la amigabilidad en el proceso.
En definitiva, si ya era eterno figurante en las listas del software de síntesis que cualquiera debía considerar, con v2 se asegura permanecer en la batalla, sin por ello verse obligado a renunciar a una usabilidad que sigue siendo uno de sus puntos fuertes. Esa usabilidad y lo peculiar (casi excéntrico) de su librería son ahora, como lo eran antes, puntos fuertes respecto a una competencia que poco a poco se va poblando de más propuestas también muy interesantes.

Más información y vídeos sobre Omnisphere | Spectrasonics