sábado, 24 de marzo de 2012

Deluxe compra el estudio de sonido 103 Toddao


Con sedes en Barcelona, Madrid y acuerdos estratégicos en Oporto y Vigo, 103 Toddao es una referencia en sonorización y doblaje.

Deluxe Spain aumentará su oferta de servicios gracias a la adquisición del estudio de sonido 103 Toddao.
103 Toddao, que cuenta con una amplia trayectoria en el mercado audiovisual, es un estudio de referencia en la sonorización y doblaje para la industria audiovisual de nuestro país. Dispone de sedes en Barcelona, Madrid y acuerdos estratégicos en Oporto y Vigo.
Deluxe, de acuerdo con su estrategia de expansión y gracias a esta nueva adquisición, mejora más aún su oferta global a la industria del entretenimiento.
Ramón Martos, director general de Deluxe en España, ha destacado que “esta adquisición obedece principalmente a nuestra firme voluntad de desarrollar para nuestros clientes mejores flujos de trabajo y mayores economías de escala. De esta operación se verán sin duda beneficiados tanto productores de contenido como distribuidores y broadcasters. Desde Deluxe queremos agradecer a los anteriores propietarios su buen hacer durante todo el proceso, además de reconocer tan magnífico trabajo en el estudio durante todos estos años.”

The Blackout Project, nueva productora especializada en contenidos audiovisuales

The Blackout Project.Es una compañía especializada en generar contenidos de entretenimiento hechos a medida para su explotación, distribución y emisión en las nuevas plataformas digitales. Fundada por Aletxu Echevarría, exdirector del Área Digital de Endemol España, la nueva productora The Blackout Project posee experiencia en el desarrollo digital, producción y marketing televisivo.   The Blackout Project realiza servicios de comunicación integral, que abarcan todo tipo de formatos para cualquier soporte: desde programas para televisión o en la Red, hasta aplicaciones para móviles; todo ello dirigido tanto para el público generalista como para potenciar la comunicación de las marcas.

La compañía nace con el objetivo de aportar soluciones de comunicación y prescripción de marcas a través de contenidos de entretenimiento realizados a medida. Para ello, ha creado un sistema de organización a través de una “plataforma digital colaborativa” que aglutina la labor de sus socios, colaboradores y proveedores, lo que le permite automatizar los procesos de producción desde el “briefing” hasta la entrega del producto a la vez que se optimizan al máximo los costes.

A través de esta plataforma se puede contratar creatividad y desarrollo de formatos de entretenimiento on line y redes sociales, la creación y desarrollo de “apps”, “social games”, videos corporativos, música para contenidos, o consultoría estratégica para contenidos web y social media, entre otros. The Blaclkout Project crea el contenido, lo formatea y lo distribuye digitalmente.

Además, The Blackout Project comercializa la versión española de la red “Repudo”, creada en Holanda y que en España se denomina “Movidón”, la primera aplicación que comercializa el sistema de geolocalización de la telefonía móvil, descargando objetos digitales en el mundo real.

Fundada por Aletxu Echevarría, exdirector de Digital de Endemol España, The Blackout Project cuenta con un equipo de experimentados profesionales del sector audiovisual con más de once años de experiencia en el desarrollo y explotación de marcas en el entorno digital.

“Pretendemos erigirnos como una de las multinacionales de referencia en ocio interactivo bajo el prisma del cambio que ha experimentado el sector de la comunicación, donde ya no vale hablar de escenarios de convergencia entre lo off y lo on, si no de soluciones de comunicación integrales”, señala Aletxu Echevarría.

Sonido del siglo XXI-(Imm Sound)

(Imm Sound)-Estación de trabajo de audio totalmente envolventeo ™ IAWla perfección se comunica con Pro Toolsy es responsable de todos los procesos relacionados con el sonido 3DEl IAW  es ​​el poder detrás de nuestro canal-tecnología agnóstica.Equipado con una interfaz táctil intuitivaque permite la colocación y el movimiento de los sonidos alrededor de la audiencia con el toque de un finger.Producing una película con sonido 3D IMM es un proceso creativo maravilloso. Las nuevasposibilidades estéticas son tan poderosas que sería justo hablar sobre el nacimiento de un nuevo lenguaje narrativoAl igual que en la estereoscopia, cada nueva producción explora distintos aspectos de esta lengua, en un proceso que sólo puedeestablecerse en unos pocos años.El impacto en el flujo de trabajo, herramientas y procesos de producción de sonido de películas de largometraje es notablemente bajo. La clave es que la tecnología de sonido de la IMM proporciona un completo canal independiente del flujo de trabajo. El concepto de canal no está presente en la grabación, post-producción y entrega, lo quefacilita muchos procesos y permite que los ingenieros de sonido para concentrarse plenamente en la creatividad.

sonido IMM es un nuevo paradigma. Se aborda la raíz de los problemas que han impedido el despliegue de sonido envolvente 3D, a pesar de las muchas propuestas para los diseños de múltiples canales que han convivido durante casi 20 años. Se aprovecha el poder de la era digital para proporcionar una solución verdaderamente nuevo, no sólo una manera de integrar más canales de audio en un soporte físico.Por primera vez, la creación de contenidos se hace independiente del número de altavoces y su posición. Una sola banda sonora de la imm 3D aprovecha lo mejor de todos los diseños de altavoces presentes y futuras, asegurando siempre la máxima calidad y fidelidad.El impacto es en todos los niveles. En post-producción, la creatividad se maximiza mediante la liberación de los diseñadores y mezcladores de tener que hacer frente a los canales 10-20 para basar sus decisiones. La estación de trabajo de audio totalmente envolvente se integra con todo el software y el hardware de los grandes estudios, lo que permite a los ingenieros a producir de manera eficiente y concentrarse en los procesos creativos.En la distribución, una DCP solo es necesario para todos los lugares, independientemente de si tienen imm de sonido compatibles con los procesadores de audio o no. En el teatro, que ofrece la libertad a los expositores para instalar los diseños que mejor se adapten a sus necesidades y especificidades de locales, mientras que proporciona plena compatibilidad 5.1/7.1, y que requiere un componente adicional mínimo de altavoces y amplificadores, incluso menos que las propuestas tradicionales para sólo una o dos de techo distribuidos canales.IMM sonido hace una contribución a la lengua cinematográfica que puede mejorar la experiencia de cine de una manera que no se puede predecir en la actualidad. No puede prever cómo los profesionales creativos se aprovechará de la posibilidad de sumergir al espectador en el centro de cualquier paisaje sonoro imaginable. Tampoco podemos predecir hasta dónde la comunicación con el espectador va a mejorar con sonido espacial, pero estamos seguros de que la experiencia del cine será mejor.la tecnología de sonido envolvente de sonido IMM es un gran avance. Es por delante de otras propuestas por al menos un par de años. Puede tomar algún tiempo hasta que se adopten en su totalidad por la industria, pero está claro que la tecnología de sonido IMM está liderando el camino hacia el cine siglo 21 sound.Immersive sonido es mucho más que el sonido en 3D, si se entiende como una simple adición de altavoces en el techo, sino que es sobre la calidad de la experiencia del espectador, sobre los paisajes naturales que la vida real rival. tecnología de la imm sonido ha sido diseñado para hacer posible, eficiente y de bajo costo esta evolución del sonido cinematográfico.


lunes, 19 de marzo de 2012

Antena 3 inicia el rodaje de ‘Imperium’


Producida también por Bambú ‘Imperium’ es un spin off de la exitosa serie ‘Hispania’ que se rueda ya en las afueras de Madrid y se trasladará posteriormente a Roma para grabar sus exteriores en los míticos estudios de Cinecittà.


Antena 3 ha iniciado el rodaje de Imperium, un spin off de la exitosa serie Hispania. Producida también por Bambú, la serie acaba de comenzar su rodaje en las afueras de Madrid y se trasladará a Roma para grabar sus exteriores en los míticos estudios de Cinecittà, situados en la Vía Tuscolana, lugar en el que se han rodado algunos de los títulos más emblemáticos del género Peplum como Cleopatra, Quo Vadis o Ben-Hur, y más recientemente grandes superproducciones para el cine y la televisión como Gladiator o Roma.
Lluís Homar, Pepe Sancho, Nathalie Poza, Elvira Mínguez, Jesús Olmedo, Iván Sánchez, Fernando Andina, Javier Ríos, Belén Fabra, Ángela Cremonte, Thais Blume, Paula Prendes, Aura Garrido, Nasser Saleh, Antonio Mourelos, Robert González, Carlos Álvarez Novoa y Santi Marín, destacan entre los protagonistas de Imperium.

WIN&I Media Viewer de Evoluce propone una innovadora forma de interactuar con el display


La empresa desarrolladora de software Evoluce ha sacado al mercado el WIN&I Media Viewer, que permite presentar imágenes y videos mediante simples gestos de la mano a través de Kinect para Windows.


Evoluce ha lanzado el WIN&I Media Viewer con Kinect para Windows, con el que los usuarios pueden presentar imágenes, videos, diapositivas de PowerPoint y páginas PDF con un simple gesto de la mano. WIN&I Media Viewer es una de las primeras aplicaciones comerciales para el dispositivo Kinect para Windows. Los usuarios pueden mostrar imágenes y videos navegando a través de galerías con un simple movimiento de la mano.
El WIN&I Media Viewer sigue los gestos hasta a una distancia de 4 metros de la pantalla y ofrece una nueva y emocionante manera de interactuar con el PC o display. Los usuarios pueden echar un vistazo a las fotos de las últimas vacaciones o presentar productos de vídeo en la oficina. Las diapositivas de PowerPoint y las páginas PDF pueden ser controladas en cualquier display de gran formato con Kinect para Windows.
Wolfgang Herfurtner, consejero delegado de Evoluce, ha indicado: “Hace sólo cinco semanas desde que Microsoft lanzó Kinect para Windows y ya estamos ofreciendo un software de interfaz de usuario fácil de usar, debido al gran apoyo de Microsoft. WIN&I Media Viewer está diseñado para la sala de estar y para sectores como la educación, la industria, la salud y el retail”.
El WIN&I Media Viewer es fácil de instalar y es compatible con muchos formatos de imagen y video estándar.
Imagen de previsualización de YouTube


EMLabs Virtual Games, espacio de rehabilitación virtual para personas con esclerosis múltiple


La Asociación de Esclerosis Múltiple de Bizkaia ha puesto en marcha en su Centro de Rehabilitación de Bilbao, en colaboración con la empresa Virtualware, el EMLabs Virtual Games, un innovador proyecto para la rehabilitación de los pacientes con esclerosis múltiple a través de tecnologías multimedia, realidad virtual y los ‘serious games’.

La Fundación Vasca de Esclerosis Múltiple Eugenia Epalza ha inaugurado en Bilbao el EMLabs Virtual Games, el primer espacio de rehabilitación virtual para personas con esclerosis múltiple de Europa. El proyecto ha sido desarrollado por la empresa Virtualware, en colaboración con terapeutas de la Fundación EM y de la Asociación de Esclerosis Múltiple de Bizkaia (ADEMBI), expertos en neurología y rehabilitación.
Virtualware ha desarrollado VirtualRehab Esclerosis Múltiple, un sistema de rehabilitación virtual que combina entornos 3D y tecnología Kinect de Microsoft. Mediante este sistema de captura de movimiento, los pacientes con esclerosis múltiple pueden ejercitar diferentes movimientos sin necesidad de ningún dispositivo o controlador. Esta herramienta dispone de un módulo de análisis e informes que permite al terapeuta hacer un seguimiento de los progresos de cada usuario, todo ello por medio de gráficos e informes detallados individualizados.
Todos los pacientes se pueden beneficiar de la rehabilitación virtual, ya que es válido para todos los grados de discapacidad, se programa y se adapta a las necesidades de cada usuario. Se trabajan diversos síntomas como el equilibrio, la espasticidad, la fuerza, la fatiga…con el componente lúdico que aporta un videojuego. El terapeuta realiza un seguimiento de cada usuario a través de un seguimiento personalizado y análisis gráficos de progresos, evolución por cada extremidad tratada.
Tratamiento de la enfermedad
Los beneficios más importantes que los pacientes consiguen con la rehabilitación virtual son: mejoras en la marcha, la resistencia, el equilibrio y la coordinación y fortalecimiento muscular, que repercute en una mejoría de la fatiga, síntoma común, y muy discapacitador en esclerosis múltiple.
El nuevo centro será también un laboratorio de pruebas de nuevas tecnologías, en el que trabajarán conjuntamente un equipo interdisciplinar formado por investigadores, neurólogos, rehabilitadores y tecnólogos. Con el objetivo final de ayudar a mejorar la calidad de vida de los pacientes, se convertirá en un espacio con la innovación como eje central, donde se testarán nuevos productos y videojuegos enfocados a la rehabilitación física y cognitiva para adaptarlos a las necesidades de los usuarios.

miércoles, 14 de marzo de 2012

Todos los secretos de ‘John Carter’, la última superproducción de Disney


Aunque John Carter contiene un buen número de efectos visuales, los realizadores querían utilizar localizaciones y paisajes naturales para dar la sensación de que los lugares son reales, ofreciendo al espectador una autenticidad que contribuye a la credibilidad y al realismo de la nueva película de Disney.


Del realizador galardonado con un premio de la Academia Andrew Stanton, llega este viernes a las pantallas de todo el mundo John Carter, una aventura de acción espectacular ambientada en el misterioso y exótico planeta Barsoom (Marte). La película está basada en una clásica novela de Edgar Rice Burroughs, cuyas imaginativas aventuras sirvieron –y sirven hasta hoy- de inspiración para muchos cineastas.
El film narra la historia de un veterano de guerra, el ex militar Capitán John Carter (Taylor Kitsch), quien inexplicablemente es transportado hasta Marte donde, pese a su reticencia, se verá inmerso en un conflicto de proporciones épicas con los habitantes del planeta, entre los que se encuentran Tars Tarkas (Willem Dafoe) y la cautivante Princesa Dejah Thoris (Lynn Collins). En un mundo al borde del colapso, Carter redescubrirá su humanidad al advertir que la supervivencia de Barsoom y su gente está en sus manos.
Este año se celebra el centenario de la novela épica de acción y aventuras escrita por Edgar Rice Burroughs y titulada Una Princesa de Marte (después pasó a denominarse Bajo las lunas de Marte). Debido a su enorme éxito, Burroughs escribió otros diez libros más que se conocieron como la serie de Barsoom que era el nombre que le había dado al planeta. El personaje de John Carter está en todos los libros y en nuestros días está considerado el primer héroe espacial. Carter se ha convertido en un paradigma del héroe en todos los ámbitos de la cultura popular, desde los libros de cómics, la ilustración y la animación, la televisión y ahora el cine. De hecho, John Carter ha sido fuente de inspiración para algunas de las mentes más creativas del siglo pasado.
Es indudable que la figura heroica de John Carter ha inspirado al guionista y director Andrew Stanton, ganador de los Oscar, que leyó los libros cuando tenía 12 años y se convirtió en un fan total. El sueño de Stanton de ver los personajes de Burroughs en la gran pantalla se ha realizado por fin ya que Walt Disney Pictures estrena ahora John Carter para conmemorar el aniversario del libro.
Cuando estaba montando la película, Stanton recibió la visita de un pequeño grupo a los Barsoom Studios y reconoció su pasión por estos libros. Rodeado de magníficos dibujos y elaboradas maquetas, Stanton habló con entusiasmo sobre el proyecto. “Casi todo el mundo conoce el libro Tarzán que también escribió Burroughs”, afirma Stanton. “Ese es el libro que le hizo rico e increíblemente famoso. Pero cuando era niño la serie de Marte me parecía más entretenida. Me intrigaba mucho más ese mundo ficticio, los personajes y los escenarios. ‘Una Princesa de Marte’, que más tarde se llamaría ‘Bajo las lunas de Marte’, está considerada la piedra Rosetta de la ciencia ficción. Para mí, este y todos los libros de la serie que salieron después eran el equivalente de los libros de Harry Potter actuales”.
Antes de empezar a trabajar en John Carter, Stanton se forjó una magnífica y prolífica carrera en el cine de animación. Stanton ha ganado dos veces los Oscar de la Academia a la Mejor Película Animada. Una vez por Buscando a Nemo y otra por Wall-E. Escribió y dirigió ambas cintas. También ha coescrito los guiones de Toy Story, Toy Story 2, Toy Story 3, y Bichos. Una aventura en miniatura y producido Monstruos, S.A., Up y Parcialmente nublado.
“En 2006, cuando estaba a medio camino de Wall-E, empecé a pensar en lo que quería hacer después. La idea de ver en la pantalla la historia de Marte, la obra de Burroughs, me entusiasmaba. Llamé a Disney y pregunté: ‘¿Amigos, me daríais la oportunidad de hacer este proyecto? Yo lo veo como un híbrido, con material generado por ordenador y acción real. Digamos que mitad y mitad. Puede que tengáis dudas sobre la parte de acción real, pero de lo que sí estoy seguro es de poder hacer la parte generada por ordenador”. Probé suerte. Y dijeron que sí”.
Stanton empezó a escribir el guión de John Carter con Mark Andrews, que fue Jefe de Historia en Ratatouille y Los Increíbles y que está dirigiendo Indomable, la próxima película de Pixar. Descubrieron que habían sido fans de la serie de Barsoon en su infancia y mientras escribían el guión “intercambiaron historias de frikis”. “Después, cuando el guión se complicó, comprendimos que necesitábamos otro escritor para seguir avanzando mientras empezábamos a preparar la película”, dice Stanton. “En una fiesta de Navidad alguien me contó que Michael Chabon, que ganó el Premio Pulitzer por ‘Las asombrosas aventuras de Kavalier y Clay’, era muy aficionado a los libros de Burroughs. Le conocía, así que le llamé. Pensé que estaría muy ocupado, pero tuve suerte y aceptó. Los tres empezamos a trabajar juntos y una de las cosas que descubrimos es que todos habíamos hecho dibujos de los personajes de los libros cuando éramos pequeños. Las habíamos guardado y las enseñamos los unos a los otros”.

Cómo se rodó
En el aspecto técnico, rodar escenas con actores que hacían de Tharks supuso problemas físicos y técnicos para todos. Después de ver una maqueta a escala real de uno de ellos en Barsoom, fue fácil comprender el porqué: miden tres metros y tienen la piel verde, colmillos y cuatro brazos.
“Pensé: ‘Bueno, tengo dos protagonistas generados por ordenador que están en pantalla casi tanto tiempo como los reales. Así que necesito estar seguro de que están bien hechos y de que el público cree que son reales”, dice Stanton. “Como espectadores, nuestra gramática para comprender y creer las señales físicas está en una escala que va de grandes movimientos a pequeños. Por ejemplo, se puede sentir cuando alguien está reaccionando antes de que digan nada. No sabía cómo lograr el nivel de credibilidad que quería si no había un gran actor dándole la réplica a otro gran actor en la misma escena. Se lo expliqué a mi reparto y lo entendieron. Les dije: ‘¿Os gustaría llevar pijamas grises en el desierto a 38 grados subidos a unos zancos?’ Y todos dijeron: ‘¿Dónde hay que firmar?’ Fue la mejor forma de venderles la mercancía, diciéndoles la verdad por muy horrible que fuera”.
Los actores que interpretan a los Tharks también llevaban cámaras faciales para capturar todas sus expresiones y los movimientos de sus rostros. “Por suerte, los Tharks llevan zancos”, dice Stanton. Y añade: “De esa forma pudimos colocar las cámaras donde las necesitábamos como si formaran parte de la estructura facial. Así, los actores podían utilizar las cámaras para el personaje y no resultasen pesadas y molestas”.
Puede que a Stanton le preocupase el paso de las películas animadas a rodar acción real, pero sus temores se vieron disipados el primer día en el plató. “El primer día, Lynn llegó vestida de Dejah, Taylor de Carter y Samantha Morton llevaba su estrafalario traje. Yo estaba detrás de la cámara y ellos pasaron delante de mí para colocarse en el plano. No me lo podía creer. No había querido pensar en ese momento, lo había desterrado de mi mente. Temía sentirme demasiado abrumado o intimidado. Pero dejé de estar preocupado en ese mismo momento.
Lo cierto es que la gran sorpresa fue ver la escasa diferencia que había entre la animación y la acción real”, dice el director. “Me preguntaban qué tal llevaba trabajar con gente. Y yo siempre decía que en Pixar trabajo con 200 personas todos los días y que no hablo con los ordenadores. No le digo a los ordenadores lo que tienen que hacer. Hablo con un artista sobre un traje que va a diseñarse, dónde hay que poner la cámara y sobre la motivación de un actor. Nada de eso cambió mientras rodaba ‘John Carter’. La diferencia estuvo en el entorno y en la inmediatez de las decisiones creativas que tenía que tomar. De esto tuve que hablar mucho”.
Stanton también trabajó estrechamente con el diseñador de producción Nathan Crowley para crear un mundo marciano como no se había visto nunca. El quería que el público viese Marte de una forma totalmente nueva. En el léxico de la ciencia ficción hay muchos clichés sobre el aspecto que tiene Marte y los marcianos. Si nos basamos en los dibujos y pinturas que vieron los visitantes, está claro que lo han logrado.
“Quiero que el público sienta que las cosas ocurren de verdad en esta película, que vean el desorden y la crudeza de la realidad”, dice el director. “He abordado la película como una especie de documental sobre viajes, como alguien que se estuviera documentando sobre Marte como si fuera un país extranjero del pasado. El libro se desarrolla en 1912 y ahonda en la época anterior al cambio de siglo, así que la descripción de la Tierra corresponde a esa época. Eso me permitió desprenderme de lo fantástico, del aspecto de fan infantil de la historia y hacerla más ‘legítima’, a falta de otra palabra mejor. Eso significa que las cosas tenían que estar envejecidas y usadas por el paso del tiempo. Necesitábamos que la cultura de Marte estuviera muy arraigada, que diera la impresión que en ese mundo habían pasado muchas cosas antes de que nosotros lo viéramos por primera vez. Me pareció una visión totalmente nueva.
Stanton añade: “Marte es un planeta desierto y moribundo. Acabamos utilizando localizaciones reales como la antigua ciudad de Petra y otros lugares en Jordania que retocamos muy ligeramente. Es una maravilla porque en esos lugares la historia antigua está construida en la roca. Te percatas que la historia se construye sobre una etapa anterior de la historia, y que la gente forma capas, como el sedimento. Cada vez que pongo la televisión aprendo algo nuevo en el Discovery Channel sobre culturas antiguas. Quiero que la gente esté en esa misma longitud de onda cuando vean el Marte que hemos creado. Quiero que se pregunte si están viendo algo ficticio o real. Quiero que piensen: ‘¿Dónde demonios han rodado eso?’”
Stanton ha destacado que “hemos estado trabajando para sustituirlo todo con elementos generados por ordenador y para ampliar los mundos. Todo está saliendo bien y la verdad es que tiene muy buena pinta. Y tiene las sutilezas que yo quería. Si mañana tuviera que rodar otra película, haría exactamente lo mismo que en John Carter“.
El rodaje de John Carter empezó en el Reino Unido el 4 de enero de 2010. El grueso del rodaje en estudio (junto con las secuencias exteriores ambientadas en la Tierra) tuvo lugar en los Shepperton Studios de Londres y en los Longcross Studios de Chelburn, y duró cuatro meses.
A finales de abril, el equipo de la película se trasladó a Utah para rodar otras 12 semanas con localizaciones en Moab, Lake Powell, las salinas del Delta, Hanksville (donde la NASA ha probado vehículos robóticos), y Big Water -una enorme meseta de pizarra y piedra granulada que se extiende ante un impresionante círculo de desfiladeros rojos que bordea el Grand Staircase-Escalante National Monument.

Un trozo de Marte
Aunque John Carter contiene un buen número de efectos visuales, los realizadores querían utilizar localizaciones y paisajes naturales para rodar la acción. El productor Jim Morris nos explica por qué. “En la medida de lo posible, decidimos rodar en localizaciones reales y reducir al mínimo la construcción de platós digitales para que el público tenga la sensación de que los lugares son reales. Esperamos que esto añada una capa de autenticidad que contribuirá a la credibilidad y al realismo de la película”.
“Es lo que yo llamo nuestro pequeño ‘trozo’ de Marte”, afirma el productor Colin Wilson al referirse a las localizaciones en Utah, aunque lo cierto es que ‘pequeño’ no es la mejor palabra para definir un plató que se extiende a vista de pájaro. Los restos de una ciudad marciana se terminarán digitalmente en la posproducción utilizando la grandiosidad de los enclaves naturales. “Nuestra filosofía se ha basado en utilizar localizaciones prácticas con platós reales y escenarios que marcan un hito en nuestro mundo digital”, explica Wilson. “Los edificios sólo tienen una planta terminada, pero en la película el público verá torres y más torres”.
Sin embargo, en el plató, la mezcla de realización tradicional y magia generada por ordenador se convierte en un arte gracias a la maestría de Stanton y su equipo de producción.
Para Nathan Crowley, diseñador de producción, crear el aspecto de tres culturas diferentes marcó el punto de partida del diseño de producción. “En Barsoom abarcamos tres culturas: Zodanga, Helium y la cultura Thark. Al haber tres culturas necesitábamos tres tipos diferentes de arquitectura. Por ejemplo, he creado lo que yo llamo ‘modernismo antiguo’ y lo he adaptado para las criaturas Thark que miden 2,40 metros. He tomado la arquitectura modernista de los 60 para recrear la Tierra pero traducida en versiones marcianas de tamaño muy superior. Después he derruido los edificios para crear las ciudades desmoronadas. La idea surgió cuando encontramos las localizaciones reales porque quería que el paisaje natural formara parte de la arquitectura”.
A la hora de diseñar los trajes para John Carter, la mayor fuente de inspiración de Mayes C. Rubeo, diseñadora de vestuario, fue sin lugar a dudas el director Andrew Stanton. Lo explica así: “¡La visión de Andrew es de Barsoom! Es como si hubiera hecho un viaje de ida y vuelta a Barsoom y hubiera registrado todos los datos en su cerebro. Ha sido de gran ayuda porque es un auténtico visionario y comprende la importancia de mi trabajo”.
Trabajar en una película del género fantástico le dio a Mayes una gran libertad creativa. “Quería reproducir un look antiguo pero dentro de una película de ciencia ficción ya que esta visión la inventó Burroughs hace cien años. Tenía que pertenecer al género fantástico con mucha imaginación y color. La forma en la que los Barsoomianos llevan los accesorios, los peinados o un elemento en particular de un traje tiene un fuerte impacto en la película y contribuye a diferencias a los habitantes de las dos ciudades. Realicé un trabajo de documentación exhaustivo. Logramos que el aspecto de las tribus fuera efectivo y dramático a la vez”.
Además del vestuario, el proceso de dar vida a los personajes fue responsabilidad del director y los actores, sin olvidarnos de los maestros de los efectos visuales y los magos del maquillaje que aportaron a los personajes sus rasgos tribales.
En el caso de Taylor Kitsch y Lynn Collins, que tienen forma humana en la película, el proceso fue más directo pero físicamente agotador. “Es el papel más físico que he hecho en toda mi vida”, afirma Kitsch sobre John Carter, su heroico personaje que se ha liberado de las limitaciones físicas que impone la gravedad de la Tierra. “Los saltos, las escenas peligrosas, aprender a manejar la espada… la verdad es que todas las escenas en Marte han sido agotadoras”.
“Nos colgaban de todas las maneras imaginables”, dice Lynn Collins. Está claro que las cualidades de princesa de su personaje están a la altura de sus habilidades de guerrera. “Después de hacer esta película, mi miedo a las alturas ha desaparecido completamente”.
Sin embargo, para los actores que hacen los papeles de marcianos “Thark” de Stanton, el proceso es más complejo. Por ejemplo, el Tars Tarkas de Willem Dafoe, por ejemplo, será un alienígena de 2,75 metros con cuatro brazos, así que destaca mucho sobre John Carter. En el plató, Dafoe se sirve de zancos para igualar la altura de su personaje. Lleva el cuerpo cubierto con un mono gris marcado con lunares negros. Son puntos de referencia para los animadores que recrearán sus movimientos digitalmente en posproducción. En la cara también tiene lunares negros y dos cámaras, suspendidas de un casco, graban sus movimientos faciales.
“Se metieron totalmente en la piel de los personajes”, afirma Wilson al referirse al reparto. “Les contamos a todos nuestros personajes Thark lo que les íbamos a hacer pasar. Cuando salían de las reuniones con Andrew preguntaban dónde había que firmar. Y creo que ese entusiasmo se debe a que los personajes están muy bien escritos. Para ellos, contar una historia que nunca se ha contado y crear un mundo que no ha visto nadie constituye una oportunidad única”.
Y el director Andrew Stanton está entusiasmado con contar esa historia que nadie ha contado antes y crear ese mundo que no ha visto nadie. Y es el mismo entusiasmo que le produjo la lectura de los libros cuando era niño. Afirma: “Mi objetivo es querer creerlo. Creer que existe en realidad. Esa sensación que tienes cuando lees un buen libro fantástico en el que te preguntas: ¿Cómo sería…?”

El trailer

Imagen de previsualización de YouTube

Making of

Imagen de previsualización de YouTube
Imagen de previsualización de YouTube
Imagen de previsualización de YouTube
Imagen de previsualización de YouTube

Microsoft crea un innovador proyector capaz de convertir cualquier superficie en táctil


El investigador de Microsoft Research Hrvoje Benko ha desarrollado una nueva tecnología, llamada OmniTouch, que permite, por medio de un proyector interactivo, realizar distintas acciones, como recibir llamadas o administrar notas en cualquier superficie.


El centro de investigación y desarrollo de Microsoft ha ideado un sistema que es capaz de transformar cualquier superficie en “una superficie táctil”. Este sistema se basa en un pico proyector y en una cámara similar a Kinect que es capaz de detectar la superficie sobre la que hay que emitir la interfaz y cómo adaptarla para que no se vea mal en diferentes superficies.
El dispositivo va montado sobre el hombro del usuario y desde allí proyecta una imagen hacia cualquier tipo de superficie que se encuentre delante, adaptando su tamaño al de la superficie para mayor comodidad. Cuando ya tenemos pensado en donde queremos trabajar, se desplegan distintos botones con los que podemos interactuar virtualmente. Entre ellos se encuentra una aplicación al estilo Paint o un pad numérico para hacer llamadas con acceso a la configuración, la agenda, etc, directamente desde la pared. Este nuevo sistema también funciona sobre la palma de la mano, encima de un cuaderno o cualquier otra superficie lisa sin necesidad de que el proyector sea calibrado.
El investigador de Microsoft Research Hrvoje Benko ha desarrollado una nueva tecnología, llamada OmniTouch, que permite, por medio de un proyector interactivo, realizar distintas acciones, como recibir llamadas o administrar notas en cualquier superficie. El centro de investigación y desarrollo de Microsoft ha ideado un sistema que es capaz de transformar cualquier superficie en “una superficie táctil”. Este sistema se basa en un pico proyector y en una cámara similar a Kinect que es capaz de detectar la superficie sobre la que hay que emitir la interfaz y cómo adaptarla para que no se vea mal en diferentes superficies. El dispositivo va montado sobre el hombro del usuario y desde allí proyecta una imagen hacia cualquier tipo de superficie que se encuentre delante, adaptando su tamaño al de la superficie para mayor comodidad. Cuando ya tenemos pensado en donde queremos trabajar, se desplegan distintos botones con los que podemos interactuar virtualmente. Entre ellos se encuentra una aplicación al estilo Paint o un pad numérico para hacer llamadas con acceso a la configuración, la agenda, etc, directamente desde la pared. Este nuevo sistema también funciona sobre la palma de la mano, encima de un cuaderno o cualquier otra superficie lisa sin necesidad de que el proyector sea calibrado.

ZaagTech desarrolla el primer panel de infrarrojos multi-táctil a prueba de agua


ZaagTech está exponiendo en la DSE 2012 su nueva línea de productos, la nueva serie de pantallas multi-táctiles de infrarrojos a prueba de agua que funcionan muy bien en entornos difíciles.


En la feria Digital Signage Expo 2012 de Las Vegas, el proveedor de soluciones multi-táctiles ZaagTech ha desvelado en primicia sus cubiertas multi-tátiles de infrarrojos que son resistentes al agua y al polvo, la solución para el tradicional desafío de estabilidad para la tecnología de infrarrojos y que hace posible que la tecnología multi-táctil de infrarrojos se pueda aplicar en un universo mucho más amplio.
La innovación se ha mostrado como parte de una mesa multi-táctil de sólo 2 pulgadas de espesor y que soporta hasta 40 puntos de contacto reales, reconociendo los puntos de toque incluso después de que se derrame líquido encima.
Olivia Yin, co-fundadora y directora de operaciones de ZaagTech, ha explicado que  “las cubiertas de infrarrojos son escogidas profusamente para kioscos multi-táctiles, digital signage, mesas y displays de pared debido a la fiabilidad y la rentabilidad, pero el reto para la solución es el problema de la estabilidad: la sofisticada estructura de hardware y el algoritmo son sensibles a los obstáculos de distorsión. Mediante la introducción de un producto que funciona bien en un entorno menos perfecto, ZaagTech ha resuelto por primera vez este problema de larga duración, y estamos seguros de proporcionar un auténtico hito da la industria del digital signage, haciendo la interacción multi-táctil algo aplicable y realizable en más ocasiones – ahora un ligero derrame de líquido ya no impedirá interactuar en la mesa multi-táctil de un bar”.
Además de su amplia gama de cubiertas multi-táctiles de infrarrojos, ZaagTech también ha presentado en Las Vegas un display de pared 3D multi-táctil curvado de 3,8 metros de largo, lo que demuestra la capacidad de la empresa en la realización de proyectos personalizados. Tal y como han señalado desde esta firma, tales soluciones multi-táctiles personalizadas están basadas en su propia tecnología HSIR+ (Hybrid Scattered Infrared Plus), otra innovación revolucionaria para la industria multi-táctil.

Una aplicación de realidad aumentada ayuda a tratar a personas con autismo


El Pictogram Room es un proyecto que pretende crear una herramienta educativa para personas con autismo basada en tecnologías de realidad aumentada. Está diseñado para enseñar a comprender los pictogramas a personas con trastornos del espectro autista,  que con la ayuda de la realidad aumentada pueden ver la conexión entre imagen real y pictograma en tiempo real.Un conjunto de videojuegos que emplean la realidad aumentada como herramienta principal componen la esencia de “Pictogram Room” (la habitación de los pictogramas), una herramienta específicamente desarrollada para ayudar a las personas con autismo a mejorar su competencia en aspectos como la comunicación. Tras más de tres años de trabajo fruto de la colaboración entre el Grupo de Autismo y Dificultades del Aprendizaje del Instituto de Robótica de la Universitat de València y la Fundación Orange, se ha presentado esta herramienta, que ya han usado una treintena de niños y adultos autistas, con resultados favorables.

El director del proyecto, Gerardo Herrera, ha explicado a Efe cómo las personas que han usado la aplicación “la entienden enseguida y encuentran la experiencia divertida. Además, hemos notado cómo su uso mejora la intolerancia al error de las personas con autismo”.
Gracias al sensor de movimientos Kinect, el programa reproduce en una pantalla los movimientos del niño, que aparece representado en forma de pictograma, lo que le ayuda a comprender el significado de este tipo de dibujos tan importantes para que las personas con autismo puedan comunicarse.
Más de 40 videojuegos
Los bloques sobre el concepto de “Cuerpo” y las “Posturas”, con un total de 40 videojuegos, ya se pueden descargar gratuitamente a través de la página Pictogramas.org, donde también se puede consultar una guía de uso para padres y pedagogos, que, según Herrera, pueden usar este programa como refuerzo o premio.
Manuel Jimeno, director general de Fundación Orange, ha recalcado la necesidad de reforzar conceptos como el de la conciencia del propio cuerpo en personas con autismo, que pueden aprender de forma amena gracias a “Pictogram Room”. “El objetivo que persigue la aplicación es muy ambicioso: buscamos romper barreras para que entiendan cuestiones abstractas, que mejoren su comunicación y profundicen en el significado de los pictogramas”, ha comentado.
Los bloques “Comunicación” e “Imitación” se podrán descargar también próximamente, con otros 40 videojuegos que buscan contribuir a mejorar el día a día de las personas con autismo.

Una ‘jirafa robótica’ de teleasistencia permitirá controlar a los enfermos crónicos en sus casas


La Consejería de Salud de la Junta de Andalucía y la Universidad de Málaga (UMA) participan en un proyecto europeo que pretende monitorizar la salud de las personas mayores que permanecen en su hogar en tiempo real mediante un robot denominado ‘Jirafa’.


La Junta de Andalucía, a través de la Consejería de Salud, y la Universidad de Málaga participan en un proyecto europeo que persigue desarrollar y perfeccionar la tecnología necesaria para garantizar una comunicación directa y a tiempo real entre las personas mayores que viven solas y su médico. Se trata de una iniciativa que une la robótica y la medicina para mejorar la calidad de vida de los pacientes de avanzada edad que viven en sus hogares de manera independiente pero que requieren de determinados cuidados sanitarios para tener un óptimo estado de salud.
Este trabajo, financiado con tres millones de euros por el Séptimo Programa Marco de la Comisión Europea en su convocatoria de 2011, pretende monitorizar la salud de las personas mayores que permanecen en su hogar en tiempo real mediante un robot denominado ‘Jirafa’ (Giraff+) que cuenta con un monitor y altavoces. Adicionalmente, también satisfará las necesidades de interacción social.
El uso de este robot forma parte del proyecto global que financia la Unión Europea y que, en términos generales, pretende crear una red de sensores distribuidos en el hogar que, de forma complementaria y coordinada, pueda controlar otros parámetros relativos al bienestar del paciente.
El robot permite al paciente interactuar con el exterior como plataforma de comunicación con familiares, amigos y cuidadores, además de hacerlo con el profesional sanitario. Para facilitar su utilización, funciona de manera muy sencilla con sólo tres botones en un mando a distancia y dos en el propio dispositivo. La persona externa que pretenda una conexión con el paciente sólo deberá disponer de un programa informático que le permitirá controlarlo sencillamente con el ratón del ordenador.
Sistema global de información
El robot constituye un sistema global de información sobre el paciente que, durante los próximos tres años -periodo en el que se prolonga el proyecto-, será mejorado y modificado según las necesidades de los usuarios. Para ello, se han creado grupos de trabajo compuestos por profesionales sanitarios, pacientes y cuidadores, con el objetivo de ir afinando las aplicaciones y servicios que se van implementando.
De hecho, el robot forma parte de un proyecto global que pretende alcanzar el grado máximo de tecnología en casas inteligentes en las que existan sensores y sistemas de reconocimiento e identificación del estado en el que se encuentra el usuario, midiendo parámetros no sólo fisiológicos, sino de actividad real, como detectar una caída o movimiento del mobiliario (sillas, mesas, etc.).

martes, 6 de marzo de 2012

14 verdades incómodas sobre el audio analógico y digital


Las diferencias entre el audio digital y analógico. Por todo ello he querido hacer una pequeña lista de mis  14 "verdades", aunque algunas sean incómodas para muchos:
#1: Una grabación digital y una analógica suenan de forma diferente. Quizás la clave aquí está en saber si esa diferencia es mejor o peor. Grabar en analógico es caro y complejo: requiere buenos músicos (algo no tan abundante), máquinas bien mantenidas (algo caro y poco justificable) y cinta (también es caro). Grabar en cinta tiene ciertas características musicales deseables (por ejemplo, la compresión, la distorsión y el color que agrega, especialmente en la batería y el bajo), pero poco justificables el 99% de las veces. Hace 7 años que no grabo en cinta  y no lo he echado NUNCA de menos. Últimamente hay un "revival" con los plugins simuladores de cinta que devuelven ese color, pero…
#2: Los efectos digitales de simulación de distorsión no suenan iguales que los analógicos. Dicho esto, declaro que una versión digital bien hecha es prácticamente indistinguible, aunque requiere de grandes cantidades de proceso, y estas diferencias son incluso menos notorias en una mezcla. Hay por ahí un artículo de una revista Electronic Musician (http://www.emusician.com/techniques/0768/showdown-at-the-clubhouse--amp-software-vs-amps/141292) en el que retaban a ingenieros/productores/guitarristas a diferenciar una guitarra procesada digitalmente del sonido del amplificador simulado. El resultado es sólo se podía diferenciar el 38.5 % de las veces, lo que es, básicamente, indistinguible.
#3: Los filtros digitales no suenan iguales los analógicos. Gracias a mi afición a los sintetizadores, tengo una buena colección de instrumentos analógicos y digitales que permiten filtrado de señales externas y también algunos filtros externos y cada uno tiene su color único. Por otro lado, tengo la mayoría de los plugins de filtrado disponibles y difícilmente tienen el mismo carácter, por lo que tengo tiendo a complementarlos con saturación o distorsión.
#4: Pro Tools es el estándar mundial para el intercambio de sesiones. No es la cinta, no lo es Nuendo, ni Logic, ni Cakewalk y no depende del país en el que estés. Muchos de vosotros sabéis que soy gran defensor de Nuendo (en Mac), pero, como indiqué en un artículo anterior, siempre tengo Pro Tools a mano y me acompañará durante muchos años. Obviamente, si quieres llegar a algún lado en el mundo del audio, es conveniente manejarse un poco por Pro Tools.
#5: Una mezcla a 96 Khz no suena como una a 44.1 Khz. Muchos instrumentos musicales tienen contenido espectral fuera del rango de audición humana (establecido en 20 Hz-20Khz, y, aunque hay personas que pueden llegar a 25-30 Khz, la gran mayoría no supera los 18Khz). Son frecuencias que, aunque puedan percibir auditivamente, muchos afirman que se pueden sentir corporalmente. Segun Nyquist, para representar digitalmente un rango de frecuencias, hay que usar una frecuencia de muestreo que multiplique por 2 el valor más alto, lo cual nos da 40 Khz, o, según el diseñador de conversores Dan Lavry 70 Khz (que es para él la frecuencia óptima de muestreo). En teoría, 44.1 Khz deben ser suficiente, pero hay que tener en cuenta el necesario filtrado en los conversores. Trabajar a 88.2/96 Khz hace que éste sea menos obvio que a 44.1 Khz, aparte de aumentar considerablemente el ancho de banda. Trabajar a estas frecuencias de muestreo tan altos provoca que el procesado digital requiera de, al menos, dos veces más proceso. Tampoco los efectos y sintentizadores actúan igual a altas frecuencias, siendo corriente ver cómo a 88.2 y 96 Khz generan menos "aliasing". Conscientes de esto, algunos fabricantes usan "oversampling" para mejorar su respuesta a frecuencias más humanas (o menos de murciélago). Por otro lado la mayor parte del legado musical clásico ha sido grabado en cinta y procesado con equipo analógico que no era caracerístico, precisamente, ni por sus tasas de bajas de ruido ni por su gran ancho de banda, lo que hace que el oído humano se sienta muy cómodo sin ese brillo extra. En mi opinión, la diferencia sonora no justifica la sobrecarga de proceso (sobre todo porque el 99% de las veces se suelen filtrar los sonidos tanto por arriba como por debajo), así que casi siempre trabajo a 44.1/48 Khz  y 24 bits, usando una mezcla de hardware externo y software de alta calidad y, hasta ahora, nadie me ha negado un premio por ello.
#6: Usar dithering no hace que el audio suene mejor. En algunos foros sobre audio profesional de habla inglesa se han hecho pruebas de "doble ciego" y la sorpresa ha surgido cuando la mayoría de la gente prefería el audio sin el efecto de dithering aplicado. Puede ser que fuera este el caso en un ejemplo concreto y que en otro no funcione igual de bien, pero esto me recuerda el principio fundamental del audio profesional:
#7: Si algo suena bien, está bien. Aquí no hay discusión alguna.
#8: La presencia de una válvula no garantiza que afecte al sonido. Las válvulas requieren alto voltaje para desarrollar su verdadero color. Que un equipo tenga una válvula iluminada por un led, no significa que esté aportando nada al sonido.
#9: Una mesa de mezclas analógica no suena igual que la suma digital de cualquier software. La diferencia sólo es obvia cuando se fuerzan los niveles, pero apostaría a que nadie es capaz de distinguir una mezcla digital de una analógica si se ha hecho correctamente. El difunto Roger Nichols, y uno de los más respetados ingenieros de sonido de los últimos años, lo declaraba abiertamente en un artículo para la revista inglesa Sound On Sound (http://www.soundonsound.com/sos/jun06/articles/rogernichols_0606.htm) que suscribo. Yo llevo muchos años sin mezclar nada en analógico y, honestamente, no lo hecho de menos salvo por la experiencia de tener un botón para cada cosa.
#10: La mayoría de los ecualizadores digitales suenan iguales. Sí, esta es otra verdad que va a hacer temblar a muchos. En digital sólo hay tres tipos de ecualizadores: paramétricos (PEQ), paralelos y de fase lineal. El 99% de las EQ digitales, desde las incluídas por defecto en Cakewalk hasta la más exotérica de Softtube, son del tipo PEQ, o, en algunos cosas, del tipo PEQ+algo, donde ese algo puede ser algún algoritmo de saturación. La única diferencia notable entre ellas la forma de gestionar los rangos, Q e incluso la interación entre bandas y parámetros, lo que hace que muchas no sean directamente equivalentes. Yo debo tener 40 plugins de EQ y al final acabo usando 4 o 5 que, por su algo extra o su configuración paritcular de las bandas, son más óptimas para el resultado que busco. No tenéis porqué creer mi palabra: tenéis algunos gráficos y algo más de información en http://rhythminmind.net/1313/?p=361, así como el método para comprobarlo vosotros mismos.
#11: La suma digital en TODOS los programas de mezcla es idéntica, menos los basados en DSP externo. Este tema ha generado en Hispasonic uno de los hilos más apasionados que recuerdo: algunos dicen que Samplitude suena mejor que Cakewalk, otros que el que mejor suena es Pro Tools HD, y otros Nuendo. En el dominio digital, la suma de señales es eso, una suma, y no hay otra forma de hacerla. Punto. La diferencia más grande está en el manejo de los números y en esto sólo hay dos tendencias: coma flotante y enteros. No voy a ponerme filosófico, puesto que la mayoría no tienen conocimientos avanzados de matemáticas, pero resumiéndolo mucho, las DAW que funcionan en coma flotante (todas menos las que usan hardware externo para sumar, como Pro Tools HD/TDM o alguna versión de Pyramix) tienen resolución prácticamente infinita en cada canal EXCEPTO en el master, que está limitado por la resolución del motor de audio (típicamente 32 bits enteros). Esto significa dos cosas: que el audio sólo va a saturar en el master y que TODOS los motores de suma son iguales. En los sistemas basados en DSP esto se hace mediante números enteros, en el caso de Pro Tools 48 bits, aunque esto ha cambiado en la nueva versión.  Invito a cualquier de los presentes para que me demuestre de forma empírica que no tengo razón (no me vale el "a mí me suena mejor").
#12: Una mezcla ITB (in the box=100% digital) puede ser tan buena como una OTB (out of the box=analógica o híbrida). Para el dueño de un estudio que ha invertido miles de euros en costosísimo y bonito material analógico esta afirmación puede ser tan grave como hablar mal de su santa madre, pero hoy en día las herramientas disponibles digitalmente permiten desarrollar mezclas con la misma "calidez", "profundidad" y cualquier otra palabra que quieras usar para describir una mezcla analógica. La GRAN diferencia es que…
#13: Conseguir que una mezcla ITB suene como una OTB requiere MUCHO más esfuerzo y talento. Como he comentado antes, el sonido de los discos de nuestra niñez (para todos los mayores de 20 años) es analógico y es lo que tenemos en nuestro ADN musical. Un sistema digital puro o híbrido sin sumador no tiene un sonido definido: esto es bueno porque puedes conseguir el matiz que quieras, pero requiere que el ingeniero de mezclas sea muy experimentado, porque…
#14: No hay plugin o equipo analógico que vaya a hacer que mezcles mejor, porque, para nuestra desgracia, la calidad del ingeniero de mezclas depende del talento y de la experiencia y el talento no es tan abundante y la experiencia se mide en años de trabajo.

jueves, 1 de marzo de 2012

Matrox Mojito: monitorado profesional en Final Cut Pro X 10.0.3


Matrox ha lanzado una actualización de software para toda su gama de dispositivos Matrox MXo2 I/O y la nueva tarjeta Matrox Mojito MAX, que incorpora soporte de monitorado para la última actualización de Final Cut Pro X 10.0.3, con salida de audio y vídeo para una variedad de monitores externos y otros equipamientos que utilizan SDI, HDMI, salidas de vídeo analógicas o de productos Matrox.

Los productos Matrox ofrecen entrada y salida de vídeo y también permiten que los usuarios distribuyan archivos H264 para Web, dispositivos móviles y Blu-ray, con hasta cinco veces más velocidad que el software utilizado de forma individual. Todo el proceso se da sin pérdida de calidad.
Otras características importantes incluyen dimensionamiento de hardware a 10-bit, monitorado de HD con bajo coste con el exclusivo recurso de calibración Matrox HDMI, y monitorización de sonido surround 5.1 y 7.1 usando conexiones profesionales.
Wayne Andrews, gerente de produto de Matrox, ha señalado que “los dispositivos Matrox MXO2 Max I/O son los únicos del mercado en los que los editores FCPX codifican H264 rápidamente directamente desde Compressor 4. Éstas son también las únicas soluciones que conectan en cualquier lugar, Mac y PC, vía Thunderbolt, PCIe o ExpressCard/34 con la misma unidad versátil. Ahora, nuestros clientes pueden fácilmente visualizar sus proyectos en monitores profesionales y con la confianza de que su resultado final está de acuerdo con los patrones”.
El lanzamiento de software público abierto beta 3.0.1 para Mac, con soporte para monitorado de transmisión en Final Cut Pro X 10.0.3 está ya disponible en el forum de usuarios de Matrox.

e-labora: nueva aplicación de realidad aumentada de apoyo a los discapacitados


Qualcomm, la Fundación Vodafone y la Fundación Aprocor han mostrado en el Mobile World Congress de Barcelona una plataforma de realidad aumentada para ayudar a la integración de personas con discapacidad intelectual en el entorno laboral.


La Fundación Vodafone España, Fundación Aprocor y Qualcomm, a través de su iniciativa Wireless ReachTM, han presentado en el Congreso Mundial de Telefonía Móvil de Barcelona el proyecto de realidad aumentada ‘e-labora’, desarrollado con el objetivo de ayudar a la integración en el mercado laboral de personas con discapacidad intelectual.
En colaboración con el proyecto ‘e-labora’, que se desarrolla dentro del marco del Plan Avanza 2, esta iniciativa da respuesta a las personas con discapacidad intelectual que necesitan apoyo al realizar tareas simples “creando un entorno que mejora su seguridad, su estabilidad emocional, comunicación, autonomía y participación”, según han apuntado los responsables de la iniciativa.
De esta forma, se incorpora la realidad aumentada y la tecnología 3G en actividades de entrenamiento y formación profesional. Gracias a la colaboración de la iniciativa ‘Wireless Reach’ de Qualcomm, estos desarrollos con tecnología de realidad aumentada se utilizarán como herramientas de apoyo personal que proveen comunicación, funciones de programación de tareas, apoyo ‘in situ’, enseñanza paso a paso, realización de tareas y otra información pertinente.
Por ejemplo, algunas aplicaciones incluyen una herramienta de navegación e información en el entorno de trabajo, una guía fácil sobre cómo utilizar equipos como una impresora o cómo realizar otras tareas en el caso del puesto de un jardinero o un repositor de supermercado.
Mayor autonomía para las personas con discapacidad intelectual
El presidente de la Fundación Aprocor, Ramón Corral, ha destacado que “la tecnología de realidad aumentada de Qualcomm contribuye a mejorar la autonomía y la integración de las personas con discapacidad intelectual en el entorno de trabajo”. Así, ha añadido que resulta “sumamente útil para reconocer personas y brindar información acerca de sus responsabilidades, describir el espacio en el que se trabaja o mostrar como utilizar un dispositivo”.
Por su parte, el director general de la Fundación Vodafone España, Santiago Moreno, ha sentenciado que “este proyecto brinda la oportunidad de mejorar la calidad de vida  de las personas con discapacidad intelectual a través de las TIC, promocionando su autonomía personal y vida independiente”.