¿ Cuál es el contraste REAL en las fuentes digitales ?
Prefiero parecer tonto, que seguir siéndolo sin saberlo, a ver que me aclaré.
- La codificación en MPEG2 suele venir en YV12, lo que dejaría 12bits para luminancia ¿ contraste máximo 4096:1 ? <- sospecho que esto es una mala deducción.
- En los nuevos codecs (HD), ya que los reproductores siguen enviando la información con 24bits (HDMI 1.2), esto seguiría igual, aunque fuera el AVC-1, etc...
- Por lo tanto la mayor calidad percibida por los felices poseedores de HD, viene dada sobre todo por el mayor detalle y definición. Nada que ver con el contraste, ya que con los visualizadores actuales (plasmas, proyectores, etc...) pocos tienen esos 4000:1 nativos.
Entonces: ¿ Para qué necesito visualizadores con contrastes nativos por encima de, por ejemplo, 6000:1 ?
De verdad, este tema me tiene un poco liado y seguro que he dicho alguna estupidez, agredeceré cualquier aclaración... :freak
Gracias mil
Un Saludo :hola
Re: ¿ Cuál es el contraste REAL en las fuentes digitale
Yo desconozco cuantos bits hay destinados a luminancia en los nuevos formatos de HD y en los viejos y como están codificados estos, pero respecto a lo de la no necesidad de visualizadores de más de 4096:1 pues no. Mira el contraste sale de la medición de una magnitud física. Por ejemplo imaginate que solo tenenos dos bits de información para la luminancia, pues de esto resulta que solo tendriamos 4 posibles estados, lo que siguiendo tu razonamiento nos dejaría un contraste máximo de 4:1 ¿no? pues no. porque el estado 4 bien podría traducirse en tu pantalla en ¿que se yo? 10000 lux el 3 en 7500 el 2 en 5000, el 1 en 2500 y el 0 en 1. De estas resulta que nuestro dispositivo tiene un contraste máximo con esa fuente de 10000:1 aunque eso si, dudo que se vea muy bien.
El máximo contraste que mereze la pena lo marca la capacidad del ojo de percibir. Por cierto que la tasa de contraste es una proporción y no una unidad y que además existen los decimales.
Bueno quizás has meclado o te he entendido mal el contraste con la capacidad de definir distintos niveles de luminancia cosa en la que te quedarás con la menor de estas dos: fuente de datos (Hdmi por ejemplo, salida de datos(visualizador)
Saludos
Re: ¿ Cuál es el contraste REAL en las fuentes digitale
Entendido.
El contraste, es una característica del visualizador, hasta ahí muy claro. Aunque ese tema lo entendía no me había expresado bien.
No obstante, vuelvo al tema. Supongamos que tenemos un visualizador capaz de dar grandes blancos, y grandes negros (contraste ansi alto, sin artimañas), sin llegar a molestar los primeros y siendo perceptibles los últimos.
Una vez tengo esto, en teoría, los pasos o gradaciones entre ese blanco impoluto y ese negro carbón bastaría con que fuesen como mucho 4.096 ¿ O necesito más precisión en esa gradación ?. Esta creo que es la pregunta que debería de haberme hecho.
Entiendo que la cosa también cambia con algo de luz ambiental ya que los primeros negros no los veré, el contraste ansi bajará estrepitosamente, pero sí que sería capaz de apreciar las diferentes gradaciones a partir de ese negro que sí soy capaz de ver con determinada luz ambiental ¿ correcto ?, por lo que las gradaciones son importantes.
De hecho los fabricantes se preocupan de poner procesadores de 12bits alegando mayor precisión en la escala de grises, no mayor contraste.
Perdonad por el ladrillo, pero teniendo en cuenta que el mundo digital todo tiene sus límites, que nuestro ojo también los tiene, y la continua lucha por maximizar el contraste,la curiosidad me puede. :?
Espero ansioso más aclaraciones o sugerencias.
Gracias. :hola
Re: ¿ Cuál es el contraste REAL en las fuentes digitale
A ver si voy bien...
A mayor contraste, se presupone también mayor "precisión" para gradar desde el negro hasta el blanco.
Es decir, la diferencia entre un nivel y el siguiente inmediato siempre será mayor en un dispositivo con ratio 20000:1 que en uno 4000:1. En el primero los pasos serían 100, 105, 110, etc.. y en el segundo 20,21,22,etc...
Entiendo que el ojo apreciará de forma más cómoda las diferencias en el primer dispositivo (20000:1) que en el segundo (4000:1), aunque en realidad, si cuentan con procesado de 12bits, el número de niveles será en ambos 4096 como máximo.
Por contra, aunque la fuenta tenga 48bits de profundidad de color, y el panel para visualizar un ratio 20000:1, si el procesado es de 12bits, pues poco voy a ganar...
¿ Voy por buen camino ?
Una ayudita, plis, que hay mucho veterano y sabio mirando, aunque sea en forma de enlace a alguna página que me lo aclare.
Gracias :hola
Re: ¿ Cuál es el contraste REAL en las fuentes digitale
Bueno pues yo sigo con lo mío....
A través de wikipedia he encontrado algunos datos MUY interesantes.
- Un proyector de alta calidad cinematografico rara vez supera los 1000:1 ANSI, 2000:1 on/off
- En un entorno con una mínima, pero perceptible, luz ambiental el contraste se reduce enormemente, de 2000:1 a 500:1 bajando a 50:1 si la luz es relativamente alta.
- No obstante, en cualquier caso sí que es importante la escala de grises (mejor 12bits, que 10bits) ya que ayudará a revelar detalles de otra forma directamnte desechados. Esto es aplicable no sólo a las zonas oscuras sino a todo el rango dinámico del dispositivo.
- Por otro lado el ojo aplica "contraste dinámico", nuestro iris, pero sólo alcanza su máxima sensibilidad después de determinado tiempo adaptándose al entorno, por lo que rara vez superamos un ratio de 800:1 en condiciones normales, esta sensibilidad se reduce con la edad...
Enlace: http://www.practical-home-theater-gu...ast-ratio.html
Un Saludo :hola