Iniciado por
actpower
¿Y que ganas con "saber" que el bitrate es de 20mb o de 15mb?. No se...me parece absurdo. Como si es de 5mb y mágicamente se vea de puta madre.
Acaba de presentarse el codec H.266 que permite una reducción de bitrate a la mitad pero convervando la misma calidad, ¿nos vamos a fiar de ese baremo? ¿o de cual?. El bitrate es una medida falsa, porque yo puedo tener un bitrate de 100mb/sec y tener una calidad de mierda. O un bitrate de 20mb/sec y tener una calidad excelente.
Al final de lo que se trata es de la calidad de imagen percibida. Yo no pierdo el tiempo en saber si esto o lo otro tiene tal o cual bitrate, me fijo en lo que veo.
Es como discutir sobre si esto en 4K se ve mejor o peor o se va a ver más detalle o menos. Ya estoy harto de hacer pruebas ciegas con gente que no distingue más allá de 1440P o muchos le cascas un 1080P y un 4K y no lo ven. Sencillamente por muchos factores, no lo aprecian.
Entonces, enrocarse en algo que personalmente pienso que es baladí, es absurdo. Se es mucho más feliz viviendo "en la ignorancia". Ojalá pudiese eliminar de mis conocimientos ciertas cosas, en serio. Sería mucho, mucho, mucho, mucho más feliz. Y cuando los necesitase, pues recuperarlos.
Pero yo soy así, no soy un puto autómata y sí un ser humano, con carencias y con experiencia, con bondades y con criterio. Sin criterio y con taras. No un puto ordenador analizador. Un ser humano IMPERFECTO y PERFECTO a la vez.