Yo desde mi desconocimiento y habiéndome perdido gran parte de esta discusión, lo que supongo es lo mismo que les pasa a los TFT de ordenador:

- Lo mejor es que la imagen esté a la resolución nativa del monitor/tele.

Ejemplo de ordenador:
Si la fuente está a 1024x768 y el monitor es 1280x1024, 1 pixel de origen horizontal ocupa 1.25 en el destino, así 1 de cada 4 píxeles se duplica para rellenar la resolución final. Y al reves lo que pasará es que se "pierden" píxeles

A partir de aquí, me da igual lo que diga la gente sobre "que es mejor", en un panel 1080 lo mejor serán señales 1080 y lo demás es tan simple, creo yo, como dividir los píxeles del origen entre los píxeles de destino. Cualquier cosa que no sea un número entero (una imagen a 720 se verá mejor en una tele 720 que en una 1000,
y mejor en una 1440 que en una 1300...) es pérdida, y contra más pequeña la pérdida, mejor.

Me da igual que la señal sea i o p, hablo de mates y de resolución nativa. 1080i no es mejor que 720p igual que 720p tampoco es mejor que 1080i, porque depende de la tele, uno se verá mejor que otro.

Ahora si alguien tiene mejores explicaciones o ve que me he colado en algo, pues bienvenido es a contarlo.