Supergris skrev: ↑11. jan 2020, 22:00
TBC skrev: ↑11. jan 2020, 16:56
- så begynder den spatiale opløsning også at lide endnu mere end den ellers allerede gør på nettjenesternes hårde kompressioner af et bedre kildemateriale.
Kan du udvide vores horisont og oversætte, hvad det betyder?
Jeg kan prøve, selv om jeg grundet tidligere oplevelser betvivler mine evner til at kommunikere klart og forståeligt nok. Men med spatial resolution taler jeg f.eks. om billedmodalitetens evne til at differentiere to objekter - f.eks to forskellige pixel. F.eks. kan én præsentation af en film med den fuldstændigt samme pixelopløsning have ringere rumlig opløsning end en anden præsentation af samme film med fuldstændigt samme pixelopløsning (Et eksempel: HBO Nordic vs 1080p BluRay - Samme pixelopløsning, men en verden til forskel i spatial resolution) Ligeledes kan et encode også sagtens have en højere pixel opløsning end et andet, men kan trods den højere pixelopløsning stadig have en tilsvarende eller i værste fald ligefrem ringere spatial resolution/evne til at differentiere to objekter. (Eksempelvis kan nogle 1080p BluRay have en så god spatial resolution at den ikke står meget tilbage i forhold til en [alt] for hårdt komprimeret 4K streaming med lavere bitrate).
Særligt når det kommer til encoding og hård kompression bliver et et issue: En af de måder der spares båndbredde på er ved kvantisering - i denne relation overforsimplet sagt det at transformere inputværdier fra et større mere detaljeret og nuanceret datasæt til outputværdier der udgør et mindre detaljeret og nuanceret datasæt. Altså man tager sin [mere eller mindre] tabsfri master og transformerer dens mere detaljerede og nuancerede data til mindre detaljerede og nuancerede data i kompressionen. I videokompression sker dette [blandt mange andre båndbreddebesparende tricks og tiltag] ved at lade f.eks. 2x2, 4x4, 8x8 eller for den sags skyld 32x32 pixel tilskrives fuldstændigt samme aproximerede værdi baseret på kildematerialets nuancerede og diskrete pixels med helt individuelle værdier for hver af disse pixels lysstyrker og farver og så lade denne fælles aproximerede værdi fra repræsentere originalmaterialets diskrete og nuancerede/forskellige pixels med en samlet aproximeret og unuanceret blok af 2x2, 4x4, 8x8 eller 32x32 pixels hvor pixels bare har samme værdi for lysstyrke og farve. Dermed er der ikke længere differentieret nuanceret og detaljeret imellem de enkelte pixel som i originalmaterialet - spatial opløsning er gået tabt. Encoderens algoritmer forsøger naturligvis at gøre det hvor det bedst kan betale sig, f.eks. på en sort nattehimmel eller en ensfarvet mur, men jo mere komplekst (jo mere detaljeret det er) kildematerialet er jo mindre bliver encoderen i stand til primært at gøre det hvor det ikke betyder lige så meget (f.eks. i nattehimmelen), men begynder også at gøre det i ansigter, tøj, hår eller i f.eks en kompleks mandala af mange forskelligt-farvede og helt seperate sandssten, for at tage et måske sigende eksempel. Jo mere uencoderen udsultes for tilrådigedstående bitrate, jo mere bliver den også nødt til at lægge ind i kompressionen af f.eks. mandala'en og jo flere pixels der kvanitiseres til samme værdier, jo større detaljeringsevne går der tabt i encodet - og jo dårligere spatial resolution får det komprimmerede materiale således også, selv om det stadig hedder sig at være 1080p eller 4K pixelopløsning. Det er i øvrigt også sådan at det hænger sammen at mere komplekst og detaljeret materiale kræver mere båndbredde (f.eks. når der kommer konfetti på scenen eller når der løbes igennem en skov med flyvende hår og mange detaljer i træer, græs og jord der fyrer forbi i baggrunden. Når det går helt galt, så omtaler man det som macroblocking, men allerede før vi oplever det som macroblocking er der tale om en nedgang i spatial opløsning - hvilket man så i øvrigt kan slippe langt nemmere omkring ved 4k materiale end f.eks. SD materiale, da folks øjne ikke lige så hurtigt kan se nedgangen i spatial opløsning. Men jo større billede (f.eks. en projektor) og jo tættere man sidder på, jo tydligere bliver tabet af spatial opløsning - også i 1080p og 4K materiale. For at sætte det på spidsen, så er det vi ser med andre ord aldrig "fuld" 1080p eller 4K, lige så snart der komprimmeres - og der er derfor mange video-feinsmekkere stadig fortrækker BluRay kvaliteten over streaming kvaliteten, selv om f.eks. Netflix og iTunes faktisk er kommet relativt godt med - Men den spatiale kvalitet er stadig ikke den samme hvis man går tæt på/eller har meget stort billede (tag eksempelvis Vincent Theo's sammenligning af iTunes og BluRay - ens for den almindelige bruger på normal afstand af en normal størrelse skærm, men tydelig hvis man går tættere på og går billedet efter i detaljerne)
Hvad støj angår, så er støj slet og ret komplekst for encoderen. Det kræver, lige som f.eks. konfetti mere båndbredde at formidle det før man taber spatial opløsning. Der er ingen rolig ensfarvet mur eller himmel i et støjfuldt materiale at koncentrere de hårdeste kvantiseringer i (for de er fulde af støj). Encoderen får hurtigt brug for mere båndbredde for at holde et rimeligt kvantiseringsniveau. Derfor går den spatiale opløsning i et encode af støjfuld materiale også langt hurtigere tabt end i et mere støjfrit og roligt billede. En [simpel] tegnefilm er f.eks. i den anden ende af skalaen og noget af det nemmeste at formidle nogenlunde fornuftig med relativt lav bitrate.
Så derfor "så begynder den spatiale opløsning også at lide endnu mere [på støjfuldt materiale] end den ellers allerede gør på nettjenesternes hårde kompressioner af et bedre [underforstået mindre støjfuldt] kildemateriale. ...Håber det lykkedes at kommunikere klart og forståeligt nok :-)