Cita Iniciado por Branagh/Doyle Ver mensaje
Me refería a que en HDR10 los metadatos son estáticos y en DV son dinámicos, lo que beneficia la representación de contenido masterizado a muchísimos nits en las pantallas actuales.

Con "adaptado a las pantallas" intentaba explicar torpemente que creo que DV requiere hardware específico en los televisores, y está optimizado para representar el contenido HDR lo mejor posible de acuerdo con las características de la cada televisor en concreto (que soporte DV). Incluso puede trabajar frame a frame para mostrar cada escena de la forma más correcta posible.

DTM lo que intenta es asemejarse a DV, eliminando los metadatos estáticos del contenido en HDR10 y creando unos al vuelo, analizando la imagen en tiempo real. Si durante este proceso nos salimos de la curva EOTF y la imagen es algo más brillante respecto a la referencia, pues tampoco creo que sea ningún drama.


Gracias por la charla.
No, en realidad Dolby Vision puede tener metadatos estáticos. De hecho, DV contiene dentro HDR10, si tu pantalla no es compatible saltará HDR10, pero es que en los profiles de doble capa (dos vídeos, uno de ellos el que marca la luminancia a nivel de forograma) se incluye la versión SDR a 1080P, por cuestiones de compatibilidad.

Todo esto varía según el tipo de profile usado.

Dolby Vision no requiere hardware específico. De nuevo, hay versiones DV para Soft y para Hard, de hecho las implementaciones de VOD no necesitan Hardware asociado, actualmente.

Un ejemplo: Mi C6 fue el primer televisor con soporte DV, pues resulta que la implementación DV usada en la Xbox es por Software y ese televisor NO podía reproducir ese tipo de DV por HDMI, mientras que sí podía internamente con las apps propias.

Lo que vengo a decir es que realmente quien es responsable final de la imagen es el televisor y los algoritmos y tecnologías que lleven para mostrar la imagen.

Cita Iniciado por Branagh/Doyle Ver mensaje
Esto es interesante. ¿Que distribución sonora usan las salas actuales?. ¿Número de altavoces, ubicación?. Me imagino que hablar en términos de 5.1 o 7.1 no tiene sentido en salas.
Claro que tiene sentido. De hecho la mezcla mínima es 5.1, aunque se pueda usar Stereo, esos dos canales se meten dentro de un 5.1

El que tengas decenas de altavoces obedece a que tienes que sonorizar un espacio muy grande, así, los llamados "surround" generalmente irán en línea a lo largo de las paredes izquierda y derecha, por poner un ejemplo claro. El conjunto formato por L C R se sitúa detrás de la misma, y pueden ser varios altavoces también.

El sistema cambia por completo cuando es Atmos. Convertir una sala normal a Atmos es costoso, pues cada altavoz debe enrutarse de nuevo, recableando todo. Es un concepto totalmente diferente.

Cita Iniciado por Conrado77 Ver mensaje
Para mí la principal ventaja de Dolby Vision es que no tienes que preocuparte por tener una tele de "sólo" 600 nits cuando reproduces discos UHD de 4.000 nits, como es el caso de Megalodón (hay unos cuantos más). Puse mis propias pruebas aquí con y sin Dolby Vision. Como se vio, ni siquiera la función Optimizer del Panasonic UB820 te saca del apuro (aunque ayuda un poco). Necesitas Dolby Vision (o HDR10+) para solucionar el problema de la falta de brillo del televisior cuando se trata de reproducir discos con niveles de brillo tan elevados.

Obviamente la solución definitiva sería tener una TV de 4.000 nits o más. Pero ése no es el caso del 99% de la gente. Y ahí es donde Dolby Vision viene al rescate. Y eso sí que marca la diferencia con respecto de HDR10.
Vuelvo a repetir, el responsable es el televisor. Siempre ponéis ejemplos extremos para intentar buscar cosquillas y algunos no salen de su A B C particular como si únicamente viesen esos trozos de esas películas en bucle. Me hace mucha gracia esto. No lo digo por ti, estoy generalizando por supuesto, pero es que yo ya me salí de todo ese debate absurdo porque esa gente no avanza y no quiere avanzar.

Bien, piensa en la adaptación del Tone Mapping como lo que hace Photoshop. Es exactamente el mismo concepto. A Photoshop le das un montón de fotos a diferentes exposiciones, cuyo resutado final es un archivo en HDR, pero como NO puede mostrartelo, te hace una "adaptación tonal". En ese momento puedes elegir una serie de objetivos finales, y su resultado final dependerá de esas elecciones.

Los televisores actúan de forma similar, solo que su abanico es más grande. Pueden mostrar imágenes en HDR pero hasta un límite. Cuando se supera ese límite, tienen que realizar una adaptación tonal, la cual puede ser de formas diferentes dando resultados diferentes.

Llevo desde 2016 viendo diferentes adaptaciones tonales y todas intentan mostrar el HDR contenido dentro "a su manera". Un HDR con 4000 nits de pico no tendrá esos 4000 nits en toda la pantalla, solo en un área concreta. Es muy fácil respetar toda la imagen menos ese pico, bajándolo al máximo que permita la pantalla, el tema es como hacerlo.

Dolby Vision no soluciona nada de eso, en realidad en su versión más completa tiene una segunda capa de vídeo que le "dice" al televisor que "tal" fotograma tiene esta luminancia. Pero si el televisor no puede con ello, tiene que haber una adaptabilidad.

Es más preciso, porque obviamente tienes medido TODOS los fotogramas, pero los DTM precisamente lo que hacen es algo muy similar, medir al vuelo la luminancia contenida originalmente y adaptarla de forma dinámica. Por eso cada vez funcionan mejor. ¿Se pueden alejar de la intención original?. Eso nunca lo sabrás salvo viendo el original en un monitor profesional, ni siquiera otro televisor puesto a su lado.

Pero ya te digo yo que el nivel de acercamiento es sorprendentemente bueno.

Independientemente de ese aspecto, el HDR no va de nits cegadores, nunca fue su objetivo, pero algunos piensan que es la piedra angular. No es así y no voy a entrar en profundidad porque no quiero atraer más moscones a mi paz interior, que bastante he conseguido lograr.