No, en realidad Dolby Vision puede tener metadatos estáticos. De hecho, DV contiene dentro HDR10, si tu pantalla no es compatible saltará HDR10, pero es que en los profiles de doble capa (dos vídeos, uno de ellos el que marca la luminancia a nivel de forograma) se incluye la versión SDR a 1080P, por cuestiones de compatibilidad.
Todo esto varía según el tipo de profile usado.
Dolby Vision no requiere hardware específico. De nuevo, hay versiones DV para Soft y para Hard, de hecho las implementaciones de VOD no necesitan Hardware asociado, actualmente.
Un ejemplo: Mi C6 fue el primer televisor con soporte DV, pues resulta que la implementación DV usada en la Xbox es por Software y ese televisor NO podía reproducir ese tipo de DV por HDMI, mientras que sí podía internamente con las apps propias.
Lo que vengo a decir es que realmente quien es responsable final de la imagen es el televisor y los algoritmos y tecnologías que lleven para mostrar la imagen.
Claro que tiene sentido. De hecho la mezcla mínima es 5.1, aunque se pueda usar Stereo, esos dos canales se meten dentro de un 5.1
El que tengas decenas de altavoces obedece a que tienes que sonorizar un espacio muy grande, así, los llamados "surround" generalmente irán en línea a lo largo de las paredes izquierda y derecha, por poner un ejemplo claro. El conjunto formato por L C R se sitúa detrás de la misma, y pueden ser varios altavoces también.
El sistema cambia por completo cuando es Atmos. Convertir una sala normal a Atmos es costoso, pues cada altavoz debe enrutarse de nuevo, recableando todo. Es un concepto totalmente diferente.
Vuelvo a repetir, el responsable es el televisor. Siempre ponéis ejemplos extremos para intentar buscar cosquillas y algunos no salen de su A B C particular como si únicamente viesen esos trozos de esas películas en bucle. Me hace mucha gracia esto. No lo digo por ti, estoy generalizando por supuesto, pero es que yo ya me salí de todo ese debate absurdo porque esa gente no avanza y no quiere avanzar.
Bien, piensa en la adaptación del Tone Mapping como lo que hace Photoshop. Es exactamente el mismo concepto. A Photoshop le das un montón de fotos a diferentes exposiciones, cuyo resutado final es un archivo en HDR, pero como NO puede mostrartelo, te hace una "adaptación tonal". En ese momento puedes elegir una serie de objetivos finales, y su resultado final dependerá de esas elecciones.
Los televisores actúan de forma similar, solo que su abanico es más grande. Pueden mostrar imágenes en HDR pero hasta un límite. Cuando se supera ese límite, tienen que realizar una adaptación tonal, la cual puede ser de formas diferentes dando resultados diferentes.
Llevo desde 2016 viendo diferentes adaptaciones tonales y todas intentan mostrar el HDR contenido dentro "a su manera". Un HDR con 4000 nits de pico no tendrá esos 4000 nits en toda la pantalla, solo en un área concreta. Es muy fácil respetar toda la imagen menos ese pico, bajándolo al máximo que permita la pantalla, el tema es como hacerlo.
Dolby Vision no soluciona nada de eso, en realidad en su versión más completa tiene una segunda capa de vídeo que le "dice" al televisor que "tal" fotograma tiene esta luminancia. Pero si el televisor no puede con ello, tiene que haber una adaptabilidad.
Es más preciso, porque obviamente tienes medido TODOS los fotogramas, pero los DTM precisamente lo que hacen es algo muy similar, medir al vuelo la luminancia contenida originalmente y adaptarla de forma dinámica. Por eso cada vez funcionan mejor. ¿Se pueden alejar de la intención original?. Eso nunca lo sabrás salvo viendo el original en un monitor profesional, ni siquiera otro televisor puesto a su lado.
Pero ya te digo yo que el nivel de acercamiento es sorprendentemente bueno.
Independientemente de ese aspecto, el HDR no va de nits cegadores, nunca fue su objetivo, pero algunos piensan que es la piedra angular. No es así y no voy a entrar en profundidad porque no quiero atraer más moscones a mi paz interior, que bastante he conseguido lograr.