7. sep 2017, 07:30
#256263
Hej!
Jeg har lavet en bunke videoer i 1280x720@50fps som jeg har lagt på en Blu-ray skive.
Og så har jeg testet denne skive på flere forskellige fjernsyn. Resultatet er det samme: Billedet kan ikke være på skærmen. På et af TV'erne skæres deromkring 20 pixels af i kanterne. Altså 40 pixels i alt på hver led. Det svinger vist en lille smule på hvert TV dog.
I Blu-ray afspillernes skærmindstillinger kan man vælge opløsning til at være "Auto" eller "Original". Den står til "Original". Hvis jeg vælger "Auto", så bliver billedet skaleret og dermed vises hele billedet på skærmen. Men denne skaleret ødelægger billedet. (Længere forklaring, har noget med CRT emulering at gøre, lad det ligge, eller kig på www.8bitmemoirs.com hvis du vil).
Jeg kan så godt regne ud at det har noget med "native resolution" at gøre, eller "fixed-grid resolution". Det jeg bare ikke kan regne ud er hvorfor resultatet er som det er.
Når der fjernes 20 pixels i kanterne betyder det med andre ord at TV'ets "native resolution" må være noget som går op i 1240x680. Men det giver jo ingen mening når det er et FullHD TV som kan vise 1920x1080. Så ville jeg netop tro at den native opløsning netop er 1920x1080 - men det stemmer bare ikke overens med de andre pixels der skæres af i kanterne når jeg vælger "Original opløsning" i afspilleren.
Hvis 1240x680 svarer til en 2:1 pixel visning, så må TV'et native opløsning jo være det dobbelt for at kunne vise FullHD ordentligt? Med andre bliver 1080p signalet opskaleret til 2480x1360 pixels? Lyder meget usandsynligt.
Er der nogen som kan følge med i noget som helst jeg skriver her? Nogen som kan kaste noget lys på det?
Jeg har lavet en bunke videoer i 1280x720@50fps som jeg har lagt på en Blu-ray skive.
Og så har jeg testet denne skive på flere forskellige fjernsyn. Resultatet er det samme: Billedet kan ikke være på skærmen. På et af TV'erne skæres deromkring 20 pixels af i kanterne. Altså 40 pixels i alt på hver led. Det svinger vist en lille smule på hvert TV dog.
I Blu-ray afspillernes skærmindstillinger kan man vælge opløsning til at være "Auto" eller "Original". Den står til "Original". Hvis jeg vælger "Auto", så bliver billedet skaleret og dermed vises hele billedet på skærmen. Men denne skaleret ødelægger billedet. (Længere forklaring, har noget med CRT emulering at gøre, lad det ligge, eller kig på www.8bitmemoirs.com hvis du vil).
Jeg kan så godt regne ud at det har noget med "native resolution" at gøre, eller "fixed-grid resolution". Det jeg bare ikke kan regne ud er hvorfor resultatet er som det er.
Når der fjernes 20 pixels i kanterne betyder det med andre ord at TV'ets "native resolution" må være noget som går op i 1240x680. Men det giver jo ingen mening når det er et FullHD TV som kan vise 1920x1080. Så ville jeg netop tro at den native opløsning netop er 1920x1080 - men det stemmer bare ikke overens med de andre pixels der skæres af i kanterne når jeg vælger "Original opløsning" i afspilleren.
Hvis 1240x680 svarer til en 2:1 pixel visning, så må TV'et native opløsning jo være det dobbelt for at kunne vise FullHD ordentligt? Med andre bliver 1080p signalet opskaleret til 2480x1360 pixels? Lyder meget usandsynligt.
Er der nogen som kan følge med i noget som helst jeg skriver her? Nogen som kan kaste noget lys på det?