Cita Iniciado por goran05 Ver mensaje
¿como que no? Se adapta la luminancia del HDR a la cantidad de luz que tengas. Evidentemente cuanta menos sea menos diferencia respecto a SDR, la solución es usar una curva de luminancia (gamma) adecuada para las condiciones que tengamos.

Lo que dices, es que como decir que si no te quedas un gran tiempo y de seguido mirando al sol, no nos influye que exista.
Precisamente. Como bien dices (permíteme que utilice tu perfecta descripción) se trata de adaptar la curva de luminancia a la del proyector, luego ya no es HDR10, es otra cosa. Esto es así porque HDR10 tal y como está diseñada PQ por Dolby para su implementación en “vídeo doméstico” es una curva de gamma que no contempla ningún tipo de conversión o adaptación para HDR. Otra cosa es lo que queremos leer, creer o nos gustaría oír, que ahí no entro, pero que HDR solo lo es bajo las estrictas especificaciones que lo definen es algo que va a misa y que no admite discusión. Aquí lo que haces es adaptar la imagen HDR10 de los UHD a lo que puede permitirse tu proyector, que es como decir que adapto la resolución 4K a 1080p porque mi tele no tiene los suficientes pixeles, pero entonces ya no sería 4K por mucho que lo desee, sería otra cosa.

Con la dsiparatada carrera por los nits en proyección pasa lo mismo, ya que hay gente que cree que el HDR solo está en obtener reflejos especulares brillantes, y en parte es así cuando esto se consigue si no es a expensas de sacrificar el valor mínimo de negro, porque en proyección si pierdes negros acosta de una mayor producción de luz es como coger la manta hasta taparse la cabeza pero dejando los píes al aire porque no te da para más.

Yo no entro en lo que a la gente le gusta 1000 veces o no (es subjetivo) yo hablaba del HDR tal y como es y está diseñado y que su implementación en videoproyección ha sido un auténtico despropósito y desastre.