Primero una explicación sobre el título. Read my lips: no taxes es una famosa frase de George Bush padre ante la Convención Republicana de 1988 que le eligió como candidato presidencial. Esa promesa de no subir impuestos tuvo un enorme impacto en la campaña, pero Bush, como suele ocurrir, tuvo que incumplir su promesa y subió impuestos en 1990, y la frasecita se convirtió en un boomeran en la campaña de 1992 que llevó a la presidencia a Clinton.
La frase me vino a la memoria cuando recibí el texto de Jesús Martínez sobre desfases de audio y vídeo, que reproduzco a continuación. Lamentablemente, cada vez son más frecuentes las desincronías de audio y vídeo en las emisiones de la televisión digital. Uno pudiera pensar que es una fatalidad tecnológica propia de la TDT, pero no, Jesús, nos demuestra que se trata de desidia a la hora de aplicar correctamente los procedimientos técnicos. Así que cuando veamos que los labios de un presentador o un reportero se mueven sin sincronía con su sonido recordemos el motivo: la degradación del empleo en las televisiones españolas.
Jesús Martínez Barbero es profesor de Tecnología Multimedia en la UPM, fue director técnico de Antena 3 y anteriormente desempeñó distintas responsabilidade en RTVE. Esta es su aportación a Periodismo Global para mejorar nuestra cultura técnica.
Cada vez que veo la tele me lleno de estupor con la creciente asincronía entre el vídeo/audio con la que nos deleitan las cadenas de televisión. Es difícil ver un presentador con su audio síncrono, que no haya diferencia entre los movimientos labiales y el sonido que se escucha. Se conocen las bases por las que existe dicha asincronía y las herramientas para corregir dicho desfase, entonces ¿Por qué no se soluciona en las producciones?. En los últimos tiempos se ha visto una degradación no solo en la calidad de la señal, también en los contenidos y en las basuras que inundan nuestra TDT.
Cada cadena tiene su propio modelo de fracaso en el control de su emisión. Los factores que pueden afectar tienen mucho que ver con las últimas tendencias en la gestión; la externalización a empresas de bajo coste y la inexperiencia de trabajadores más baratos que otros de más experiencia. Desde un punto de vista simplista, para que el proceso de externalización de una producción pueda ser económicamente viable, la empresa que presta los servicios ha de usar menos personal y de menor cualificación técnica que la existente. Otra forma de bajar los gastos es despedir personal de amplia experiencia y contratar mano de obra menos cualificada y más barata para el control de los equipos. Al final se está más pendiente de la evolución de caja que de la salida de la propia emisión.
Uno de los principales factores de la asincronía entre audio y vídeo, ha sido la digitalización de la producción de contenidos. Mientras que en los equipos analógicos se va tratando loa señal de imagen según va llegando, en los equipos digitales se almacena el cuadro completo para tratar la imagen y después transmitir dicho cuadro. Pongamos un ejemplo; cuando en un codificador llega el audio y el vídeo, estos dos elementos se separan y mientras el audio se va digitalizando de forma instantánea, en el caso del vídeo se almacena un cuadro completo para su codificación (en el mejor de los casos, puesto que suelen ser varios cuadros), obteniendo un retardo de 20 milisegundos para el caso de 50 imágenes por segundo o de 40 milisegundos para 25 imágenes por segundo. Si conocemos el retardo en un equipo, es fácil retardar el sonido el mismo tiempo que se retrasa el vídeo, de esta forma se mantiene síncrono el audio y el vídeo.
El retardo de una etapa es impredecible cuando entran en escena equipos que su retardo está en función de la forma de operar, como puedan ser los mezcladores de vídeo en los que el retardo introducido puede variar desde un cuadro hasta el número de bancos de efecto que tenga el mezclador. Este es el ejemplo clásico de un estudio de producción y lo que se suele realizar es poner un retardo fijo de cuadro y medio de forma que no se note el retardo se trabaje en el banco de efectos que el operador trabaje. Si no se realizan estos retardos en los estudios, el retardo general de una producción es la suma de los retardos en cada una de las fases. Si tenemos dos estudios trabajando en cadena sin ajustar los retardos, no se nota la diferencia en cada estudio, pero si se notará en las señales que atraviesen los dos estudios.
Hay métodos de ajuste automático, el método más común es el estudio de la imagen y e ajuste del audio dependiendo de los movimientos de los labios. Plantea varios problemas en el caso de multilenguaje y no se suele utilizar en centros de producción. Hay una patente española que consiste en la inserción de cierto tipo de datos del audio dentro de la imagen y con el reconocimiento de dichos datos en la imagen se puede retrasar el audio, este caso necesita procesar menos información puesto que solo procesa el audio y no el vídeo y se puede justar en cualquier fase de la producción.
Aparte de todos estos ajustes, habría que hacer un ajuste de los retardos de los audios de todas las señales de entrada a los estudios. Cuando se trabajaba con señales analógicas había que sincronizar la señal de vídeo de todas las señales de entrada del estudio. Ahora habría que hacer lo mismo con el retardo del audio y ajustarlo en cada una de las entradas. La forma más sencilla es el uso de claquetas de forma que se pueda ajustar toda la cadena, eso sí, es necesario una cierta dedicación.
Deja una respuesta