Til al snak om Android TV - Google's styresystem til tv-skærme, mediebokse og spilkonsoller

Redaktører: AndreasL, Moderatorer

Brugeravatar
Af TBC
#305041
Godt at se, at jeg trods alt ikke længere står alene som en forbløffet fanatisk tosse med mine foranstående iagtagelser:

"One of the best examples of this upscaling making a difference was during Superbad, streamed on Netflix in HD. With the upscaler on, you could see the light reflecting off the actors’ eyes, make out the images on their shirts and could clearly see tiny details like the nutrition label on a pack of chips Michael Cera and Jonah Hill’s characters had during lunch.

For some, this level of detail is unnecessary - who cares what characters in a decade-old film wore? - but for others, this is exactly the kind of clarity worth paying for.
[..]
Who’s it for?
[..]
Discerning Cinephiles: Because AI upscaling really focuses on the small details in a scene (the lettering on a bag of chips, the wrinkles in someone’s face, etc…) relatively observant cinephiles will get the maximum enjoyment from the upscaling features of the new Shield.
https://www.techradar.com/reviews/gamin ... 106/review

Tilføjelse til mit undersøgende indlæg d. 8/11:

Har lige siddet og set Human Universe https://www.blu-ray.com/movies/Human-Un ... ay/122772/, en Bluray i 1080i hvor AI-upscale således IKKE er aktivt. Der er situationen den samme som med 4K demoerne: På samme vis en skarpere og mere detaljeret fremvisning hvad angår strukturer (f.eks. hud og skæg mv.) end jeg var vant til fra ATV 4K. Så noget må være i spil selv uden AI-upscale. Mit gæt er at det ligger i det upscale niveau der hedder enhanced som jeg ikke har fundet ud af hvad dækker over, men som muligvis(?) er en nedskaleret version af AI med en langt mindre omfattende og processorkrævende algoritme. Der er i hvertfald 3 niveauer: 'AI', 'Enhanced' og 'Basic'. Som Nvidia skiver: "AI Enhanced upscaling will fallback to “Enhanced” in these cases" (...når kilden, (f.eks. 4K, eller 50 fps 1080i) ikke er kompatibel med AI-upscaling). Tilbage står så Basic upscale, som svarer til hvad jeg er vant til at se fra mit ATV 4K.

Hvad der tales om mht AI-upscale "vist" på YouTube:
https://youtu.be/yQ7-CN3XH20?t=62
https://youtu.be/kmqa3c-oiAk?t=32
Brugeravatar
Af TBC
#305095
Supergris skrev:Det er vel ikke meget anderledes end Sonys Reality Creation eller Darbee?
Set fra et marketing perspektiv, hvis man med superlativer helt ansvarsløst skulle "forklare" hvilke fordele det er beregnet på at skulle give hr og fru Jensen, sikkert ikke meget anderledes. Men i realiteten, jo, så er det endog meget anderledes:

Sony's Relaity Creation handler om kombinationer af ting som egentlig sharpness funktion, motion adaption og støjreduktion, altså nogle helt andre ting, og har sin oprindelse i 90'erne.

Darbee vision har sine rødder helt tilbage i 70'erne og handlede egentligt oprindeligt om at gøre et 2D billede mere 3D og er et trick hvor man tager inverterede ude-af-fokus billeder og injicerer det oven i det originale billede for at give en effekt hvor hjernen narres til at opleve billedet med mere dybde (mere "3D-agtigt") og dermed mere livagtig, fordi vi med 2 øjne er vant til at arbejde med små variationer i perspektivet imellem vores 2 øjne. Det er ret smart faktisk, ...særligt når man tænker på at teknologien oprinder helt tilbage fra 1970'erne er det imponerende og klart forud for sin tid, men igen er det noget andet.

NVidia AI-upscale er til sammenligning med begge noget helt andet og nyt, derved at det er baseret på det vi i dag kalder kunstig intelligens (AI). Det er med andre ord til sammenligning en ny teknologi, hvor Nvidia har trænet sine store neural-network supercomputerfarme til maskinlæringsalgoritmer beregnede på at knække koden til hvordan man præsenterer og tilføjer "4K detaljer" i forbedringen af indhold opskaleret fra f.eks. 720p eller 1080p. (så tænk mere i retning af nyere spionfilm/CSI, hvor en supercomputer på nærmest magisk vis kan udregne flere detaljer i f.eks. et satellitbillede). Man har simpelthen fodret kunstig intelligens med videoeksempler i bl.a. SD, 720p, 1080p, 4K, 8k, så AI'en har lært hvad der udgør forskellen på videoeksemplerne og så ladet den udregne og give svar på hvilken kompleks algoritme der kan bruges for at udligne forskellene og f.eks. få 720p og 1080p eksemplerne til at minde mere om 4K eksemplet. Svaret fra Nvidias AI-supercomputere kan så downloades og benyttes af Shieldens relativt kraftige Tegra+ processor (hvilket også forklarer hvorfor det ikke er alle opløsninger og framerates der er processorkræfter nok til at udnytte algoritmerne på - i en Shield i hvert fald). Og jo mere Nvidias neurale netværks supercomputere lærer om og forfiner opskaleringsalgoritmerne, vil man også fremadrettet kunne forfine og forbedre Shieldens benyttede opskaleringsalgoritme, via fremtidige firmware updates af sheilden. Så funktionen vil med andre ord også kunne blive bedre og bedre over tid, jo bedre og mere forfinede algorimter Nvidias supercomputere får regnet sig frem til. Det er med andre ord ikke Shielden der er hjernen bag, den er blot den enhed du får lov at se noget af det med tiden klogere og klogere svar fra Nvidias supercomputere på (inden for rammerne af Shieldens tilgængelige processorkraft). Så jo, på flere områder er det endog meget anderledes end Sonys Reality Creation og Darbee Vision.

Jeg må indrømme at jeg er blevet ret imporneret over og meget glad for funktionen, selv om det bestemt også kan over-tunes til at gøre lige så meget skade som gavn på især low-quality materiale og hvis man ikke holder sig til lave mere moderate settings. Som beskrevet på forgående side afhænger det en del af kildematerialets kvalitet hvor godt eller ligefrem skidt resultatet på forskellig vis kan blive. Men det sparker helt klart nyt liv i især en 1080p blu-ray eller en relativt fornuftigt encoded Netflix film, på en måde som udkonkurrerer alt andet jeg har set og jeg ikke tror man har set mage til hidtil, selv om svagheder ved et hårdt komprimmeret encode også ville kunne eskponeres tydligere, særligt hvis man overdriver sine settings. Med andre ord, så virker det generelt langt bedre og mere gennemført på en 1080p Bluray end på f.eks. TV2Play's gyslige kompression.

Det er helt oplagt en udspringer af Nvidia's eksisterende NGX og deep learning teknologier, Nvidia er jo med i front på AI, især på dette område. Så skulle man endelig sammenligne det med noget ville det mere oplagt være med Nvidia's øvrige NGX teknologier for opskalering. https://www.trustedreviews.com/news/nvi ... ch-2947926
Brugeravatar
Af Torben Rasmussen
#305146
AI opskalering er til stede i mange af de nye TV - med ret blandet held vil jeg sige. Både Samsung og Sony promoverer deres opskalering, som værende baseret på kunstig intelligens, hvor algoritmen er trænet på eksisterende billedmateriale. Samsungs algoritme i TV'ene tilpasses også løbende efterhånden som den gentrænes hos Samsung.
Brugeravatar
Af TBC
#305186
Ja, på nyere TV vil det give mening at kalde det AI, når benyttede algoritmer er baserede på store neurale netværks læring, men ikke i forbindelse med teknologier i 70 og 90'erne, men mindre man for alvor begynder at udvande begrebet.

Jeg har selv et Sony AF8 som iblandt de forskellige mærkers 2018 OLED modeller, netop blev købt fordi Sony var/er kendt for at have en særlig god opskalering (og posterization). TV'ets opskalering er da alt andet lige da også at betegne som god, men giver dog langt fra lige så ekstreme detaljeniveauer som Nvidia's AI-opskalering i Shielden, selv om det så måske også kunne være baseret på AI i AF8 og andre nyere TV.

Ved du om det skulle være AI udviklede algoritmer der specifikt benyttes i X1™ Extreme processoren (som bl.a. i AF8) eller om man skal op i en X1™ Ultimate? (f.eks. AF9). Hvis Sony har det, vil det jo oplagt være at associere til deres X1 linje af chip.
Brugeravatar
Af bbplayer
#305188
Nu da jeg lige faldt over en 8K HDR AndroidTV boks fra Kina, så må det være oplagt at spørge om denne har 8K + HDMI 2.1 support?
Brugeravatar
Af TBC
#305216
HDMI 2.0b iflg bl.a. https://www.flatpanels.dk/nyhed.php?sub ... 1572267215

Personligt syntes jeg det er tåbelig timing at udgive en ny enhed uden HDMI 2.1, men indrømmet er det ikke lige nu lige nu og her muligt at finde ikke et betydende use case, hvor der er reelt behov for HDMI 2.1 til en streamingboks, hvis altså den så bare får VRR via HDMI 2.0b.

Vi har ingen udsigt til noget betydeligt omfang af 8K materiale, før man sikkert for længst har set endnu en revision. Og både Geforce Now og Gamestream skaleres til 60hz i encoded til streming. Så ud over de få demoer på YouTube som den aktuelle Tegra processor efter alt at dømme alligevel ikke ville kunne afkode som 8K i AV1, er der jo ikke ligefrem noget overbevisende argument for behovet endnu.

Som jeg ser HDMI 2.1 har det endnu kun regulær berettigelse i forhold til PC og næste generation 2020 konsoller og så har selve VRR delen relevans i forhold til hurtigere framerate switch uden den aktuelle blanking periode ved framerateskift. Men dette ville potentielt også kunne implementeres via HDMI 2.0b, så vidt jeg er orienteret.

Mit bedste bud [og reelle forvetning] er at den kinesiske streamingenhed med angivet 8K udgang heller ikke ville kunne afspille 8K AV1 videoer og det mere er en relativt ubrugelig funktion hvor GUI og fotofremvisning er reelle eksempler på ting ville kunne klares i 8K via HDMI 2.1. (lidt ala eksemplerne på 8K TV der reelt ikke kan modtage andet end 4K signaler). Og kinesiske Android stremingboks har helt sikkert ikke Nvidias AI-upscale, som er det som jeg sammen med bitstreaming og muligheden for mere generelt match af framerate på tværs af apps, ser som den samlede pakke der udgør hovedargumentet for at orientere sig imod en Shield som streamingboks, hvis man er entusiast. Uden dette trekløvers, ville man ikke have nogen grund til at vælge opgradere fra en tidligere Shield eller et ATV 4K eller overhovedet fra start vælge en 2019 Shield over f.eks. et ATV 4K, i forhold til selve afspilningsdelen.

OK, spildelen kunne være et andet argument for nogle, men er trods alt ikke de væsentligste element for langt de fleste. ...Heller mig selv for den sags skyld ...Selv ville jeg altid fortrække ukomprimmeret videooutput med lavere latenstid direkte fra min egen gamer-pc, når nu jeg har en sådan i forvejen.
Brugeravatar
Af bbplayer
#305219
Det er måske lidt vag og ikke særligt fremtids sikrende at mene det kan undværes hvis vi får VRR på 2.0b, som nok ikke er det som sker.

Som du starter med at sige, så er det rigtig dårligt at udgive en boks tæt op ad 2020, og uden HDMI 2.1 protokol support, og denne måske skal leve i 3-4 år, før der kommer noget, og så har flere skærme nok 8K og nogle vil have materiale som de måske vil bruge, det er intet vi ved.

Når UHD kommer i HFR , så vil man helt sikkert være glad for HDMI2.1 og man vil så glæde sig over at have valgt et TV med HDMI2.1 fuld kompatibilitet, og ikke kun visse funktioner af dette.

Filmentusiaster har ventet på dette, og håber man genudgiver de film som allerede ligger i HFR og kun mangler mediet at udgives på , der kan en UHD v2 med HDMI2.1, som er samme medie nok stadig trække folk til, uden at hele UHD Blu-ray mediet skal udskiftet men en afspiller kan supportere det.

Lad os nu se hvad fremtiden virkelig kan præstere, det er i hvert spændende om de nye Amlogic S905X3 chipset virkelig klarer 8K HDR og samtidig får HDMI2.1 håndteret korrekt på nye bokse, så er Android da godt på vej ind i nogle stuer og måske ud til nogle Samsung Q900 ejere, som har opdateret firmware :)
Brugeravatar
Af TBC
#305230
TBC skrev:
Toranaga skrev:Det ville VIRKELIG være fedt med oplistning af anbefalede indstillinger ift. hvis man har et 4K HDR TV og Kodi
[..]
Jeg må indrømme at jeg er blevet ret imporneret over og meget glad opskalerings funktionen, selv om det bestemt også kan over-tunes til at gøre lige så meget skade som gavn på især low-quality materiale og hvis man ikke holder sig til lave mere moderate settings. Som beskrevet på forgående side afhænger det en del af kildematerialets kvalitet hvor godt eller ligefrem skidt resultatet på forskellig vis kan blive. Men det sparker helt klart nyt liv i især en 1080p blu-ray eller en relativt fornuftigt encoded Netflix film, på en måde som udkonkurrerer alt andet jeg har set og jeg ikke tror man har set mage til hidtil, selv om svagheder ved et hårdt komprimmeret encode også ville kunne eskponeres tydligere, særligt hvis man overdriver sine settings. Med andre ord, så virker det generelt langt bedre og mere gennemført på en 1080p Bluray end på f.eks. TV2Play's gyslige kompression.
Hermed lige mine seneste mere præciserende iagttagelser om hvad jeg personligt, i forhold til egne præferencer og temperamenter, finder forskellige kilde-kvalitets niveauer generelt kan bære af opskaleringsniveauer. Der kan være forskel på de enkelte titler på tjenesterne, idet nogle kan have et mere stabilt og klart encode end andre, hvorfor jeg benytter en range i angivelserne (f.eks. Basic <> Enhanced). Mange andre vil sikkert syntes at det kan bære mere vil jeg ganske givet tro og vil f.eks. kunne benytte AI-medium der er default, men personligt syntes jeg at det risikerer at begynde at se for artificial ud med alt for ekstreme settings. Så her er hvad jeg personligt syntes giver mig de samlet set bedste opskaleringsresultater, som gør at Shielden (i opskaleringsniveauerne Enhanced til AI-low) slår hvad jeg har været vant til af opskaleringer, f.eks. fra ATV 4K eller mit TV og min projectors indbyggede opskaleringer, såvel som afspilningen af 4K på ATV 4K.

- Lav streaming kvalitet (f.eks. HBO Nordic, TV2 Play): Basic
- Middelmådig streaming kvalitet (f.eks DRTV): Basic <> gode titler enhanced
- Rimelig 1080p streaming kvalitet og DVB-c (f.eks ViaPlay film, 1080p Netflix, Yousee DVB-c) Enhanced <> gode titler AI-low
- God 1080p streaming kvalitet (f.eks 1080p 10-bit HDR på Netflix) AI-Low
- 1080p Bluray kvalitet: AI-Low
- 4K Streaming: AI-low = fallback til Enhanced
- 4K Blu-ray: AI-Low = fallback til Enhanced

Med andre ord er virker de højeste opskalerings settings allerbedst bedst med 10-bit HDR og 1080p Blu-ray, mens Enhanced niveauet samtidig gør boksen eminent til 4K (Streaming og BlyRay) med fremhævelse af endnu flere detaljer og nuancer end hidtil i 4K materialet. Men de højeste opskaleringsalgoritmer får imho især sløje encodes til at se direkte dårlige ud med yderligere eksponeringer af alle encodets svagheder. Jeg skylder sikkert at sige at jeg nok er mere hysterisk mht encoding artifacts og artifacts i det hele taget, end de fleste sikkert vil være det, som jeg bl.a. sværger til Blu-ray skiver når muligt, syntes at streaming generelt er ALT for hådt komprimmeret og samtidig benytter mig af et 123 tommer billede.

- - -

Nye opdagelser:
- Match framerate virker også på chromecastet indhold i 24 fps.
- Den første og hidtil eneste app jeg endnu er faldet over der ikke virker med match-framerate er Apple-TV. Der er dog [endnu] tale om en uofficiel sideloaded version fra Amazon beregnet til FireOS (en fork af en ældre Android version og uden samme Support Library), der således slet ikke er beregnet til Sheild: com.apple.atve.amazon.appletv_1.1-2_minAPI21(armeabi-v7a)(nodpi)_apkmirror.com - Jeg har kun set trailers på Apple-tv appen (jeg sparer min gratis prøve til der engang lægger flere hele serier klar, da jeg ikke har lyst til at se halve serier)
bbplayer skrev:Når UHD kommer i HFR , så vil man helt sikkert være glad for HDMI2.1 og man vil så glæde sig over at have valgt et TV med HDMI2.1 fuld kompatibilitet, og ikke kun visse funktioner af dette.
Jeg er for så vidt enig med dig, sådan helt grundlæggende i princippet om at der burde have været HDMI 2.1 i en ny version. Men som andre debattører i andre tråde har overbevist mig om er det svært at se realistiske use-cases i den nærmeste fremtid ud over hurtigere switching af video uden blanking via VRR (som potentielt kan klares på HDMI 2.0) og så højere fps i 4K fra især PC og evt. fremtidige konsoller.

Streamingbokse som ATV4K og Shield kan jo allerede snildt afvikle og outputte 60 fps HFR video i 4K via HDMI 2.0, shielden endog også 120 fps ved 1080p via HDMI 2.0b.

Husk at videomateriale som kilde jo er farve-subsamplet ved YCBCR 4:2:0, og HDMI 2.0 f.eks. kan klare 4K HDR@60 fps selv hvis det havde været 12 bit 4:2:2 og sågar bære 240 fps ved 1080p 4:2:0 hvis det endelig skulle være (og displayet var kompatibelt).

Det er svært at se for sig at 4k 120 fps HFR skulle blive tilgængeligt via skiver eller streaming, sådan lige i den nærmeste fremtid må jeg jo medgive dem der har "omskolet" mig til indrømmelserne af at det er svært at se use-cases ifbm lige præcis en streaming boks, på trods af min principielle holdning om at der dog burde have været HDMI 2.1 i en 2019 version, selv om det måske inden for den nærmeste fremtid og ind til på den anden side af næste version ifbm en streamingboks reelt kun ville have egentligt relevans i forhold til fremvisningen af GUI og fotos i 8K. Aktuelt mangler vi så meget som bare meningsfuld adgang til 4K HDR 60 fps materiale, som streamingbokse ala Shield og 4K Blu-ray afspillere allerede kan afvikle og klare via HDMI 2.0
#306878
Jeg synes heller ikke, at AI-opskalering bør bruges. Som så meget andet, der kaldes "opskalering" så har det faktisk ikke meget med opskalering at gøre. Det er billedbehandling eller det man på engelsk kalder 'picture enhancement'. Det er ikke meget anderledes end hvad f.eks. Samsung gør brug af i sine TV. En slags objekt-baseret analyse, der kan genkende ansigter, former mv. og så tilføjes der noget kunstig skarphed mv. i billedet.

Det er noget af en glidebane, at ikke kun vores TV-skærme nu billedbehandler videosignalet, men også vores medieafspillere også er begyndt. Det næste bliver vel, at tjenesterne også begynder på det.
Brugeravatar
Af TBC
#306891
Toranaga skrev: 3. dec 2019, 13:47 Jeg syntes ikke AI upscaling er værd at bruge. Det giver for meget kunstig skarped i billedet.
Ja, i default og højeste setting - Helt enig. Men jeg syntes bestemt den gør det rigtigt godt i laveste AI setting uden den voldsomme brug af kunstig detail enhancement på de 2 højeste setting. HVIS kildematerialet er solidt og i god stand er AI-low en fantistisk upscale setting, mens medium(default) og høj setting med brug af kunstigt udseende detail enhancement er direkte rædsomme og kunstige at se på. Det samme gælder også mht. dårlige kilde-kvaliteter, f.eks. streaming fra TV2 Play eller HBO og lign hvor AI-funktionen imho slet ikke kan bruges, heller ikke på laveste niveau - Det bliver det hele kun værre af, når der er alt for langt fra materialets spatiale opløsning til en 4K skærms opløsning. Men lavt AI-niveau giver til gengæld en opskalering der virkelig puster fordelagtigt liv i en god 1080p kilde (f.eks. BluRay) på 123 tommer.

Mit Sony-TV har jeg erfaret også benytter AI-baserede algoritmer med sin X1 processor og Sony's TV er jo netop også kendt for at have en god opskalering, lige som Samsungs nyere TV med Quantum Processor. For meget og for lidt fordærver for tit, siger man. Det handler om at holde balancen, så bliver resultatet samlet set bedre, mens det bliver værre hvis den direkte vælter. Med Shield er udfordringen med dens mange valgmuligheder at det faktisk er brugeren der har inflydelse på balancen fra det helt basale til det overdrevent aggressive. Den nødvendige balance afhænger så yderligere også af hvad materialet kan bære. Har man ikke held med det kan man jo heldigvis selv fravælge det helt. Personligt elsker jeg at kunne indstille det rette niveau der passer materialet bedst - Den mulighed har jeg ikke på f.eks. mit Sony TV eller mit ATV.

Rasmus Larsen skrev: 4. dec 2019, 05:50 Det er noget af en glidebane, at ikke kun vores TV-skærme nu billedbehandler videosignalet, men også vores medieafspillere også er begyndt.

Jeg kan ikke se at intelligent opskalering skulle være værre som glidebane end f.eks. tonemapping til HDR. Skærmen kan jo ikke formidle hele dynamikken, så videosignalet billedbehandles i en kontekst hvor det er tvingende nødvendigt. Det samme gælder opskalering, den er også tvingende nødvendig og den billedbehandling en opkalering udgør, kan så med brug af enten færre eller flere enten dynamiske eller generiske algoritmer udføres enten med et godt eller dårlig resultat, fuldstændigt lige som tonemapping. Begge dele (tonemapping og opskalering) udgør helt tvungne trin i den uendelige maraton for at forbedre en helt nødvendig billedbehandlingskvalitet. Shield 2019 giver så ikke mindre end 5 [imho reelt 3] forskellige niveauer brugeren kan vælge imellem alt efter hvad kilden og temperamentet nu kan bære - Det er da kun at betragte som en god ting, det er ikke noget jeg f.eks. har mulighed for at have nogen indflydelse over overhovedet på mit Sony TV eller mit ATV. Og sagen er jo at en, til materialet mere specifikt tilpasset eller optimal algoritme kan skabe et bedre billede end en helt generisk algoritme kan, i forbindelse med et givent materiale. Det er ikke alene princippet både i dynamisk tonemapping og AI opskalering, men også i det at man som bruger overhovedet kan have valg i forbindelse med algoritmers aggresivitet, nogen man som bruger så enten kan tildeles indflydelse på eller ej.

Opkalering af en god 1080p BluRay syntes jeg personligt at Shield 2019 lykkes bedre med på laveste AI-setting, end selv mit Sony TV, som med sine algoritmer for sin part gør det bedre end mit Apple-tv med dets algoritmer. Og på to sidstnævnte har jeg bare slet ingen brugerindflydelse på resultatet overhovedet. Det sætter jeg som "avanceret" bruger direkte pris på at kunne have.

TV'et skal jo så i øvrigt slet ikke [op]skalere hvis det får et 4K signal til 1:1 pixelmapping ind og så er det jo ligemeget om den helt tvingende nødvendige funktion sidder i medieafspilleren eller i TV'et, så handler det bare om at lede den af dem der gør det bedst gøre det.

Mere komplekst er det så imho med HDR tonemapping, hvor det fortsat forgår to steder, hvis det også er til stede i medieafspilleren. Men der er der mange inkl. HDTVTest, Cnet og Rtings (svjh), der mener at f.eks. Panasonics tonemapping i deres BluRay afspillere ofte medvirker til at forbedre det samlede resultat, selv om TV'et også udfører en efterfølgende tonemapping. Så selv helt grundlæggende principper for hvad der udgør en glidebane kan man åbenbart ikke opstille, i hvert fald når der er tale om funktioner der slutteligt er uundgåelige og strengt nødvendige.
#306900
Jeg synes ikke, at man kan sammenligne med tone-mapping. Opløsningen 4K er fast defineret som 3840x2160 pixels i TV. Lysstyrke og håndteringen heraf varierer meget fra TV til TV og man kan ikke fremvise et godt resultat over en bred kam uden en eller anden form for tone-mapping eller metadata-fremgangsmetode. Hvis alle TV var lige gode til at håndtere lysstyrken - ligesom alle 4K TV viser præcis 3840x2160 pixels - så var tone-mapping og dynamiske metadata unødvendige, bl.a. fordi man så i studiet kunne fastsætte niveauet 100% præcist.

Dertil kommer, at tone-mapping af lys er noget ganske andet end at ændre farvetone, detaljer eller komposition i et billede. Den samme farve kan gengives ved forskellige lysniveauer. Hvordan vi opfatter farven afhænger af lyset i omgivelserne fordi vores pupil tilpasser sig dynamisk. Af samme årsag kan man ikke sige, at et billede gengivet ved 2000 nits er bedre end et billede gengivet ved 200 nits, selvom det første tal er højere. Essencen i HDR er, at skærmen kan styre lyset præcist i billedet og at den har et stort spænd i lyset.

Ændrer man derimod farvetonen, så er den ændret. Den er en anden. Ændrer man skarpheden omkring et ansigt eller objekt i billedet, så ændrer man også fokuspunktet i billedet. Det er billedbehandling og det er det, som Nvidia Shield bevæger sig over i (og TV-skærme generelt gør). Desværre accepteres det ofte, hvis det pakkes ind som "opskalering".

Billedbehandling er en beslutning, som hører til i filmstudiet på foranledning af filmskaberne. Hvis de mener, at f.eks. en algoritme, som den Nvidia bruger, er gavnlig, så kan de jo blot tage den i brug. Men beslutningen skal ligge hos dem der skaber indholdet - ikke dem der fremviser det. I produktionsledet kunne man også udføre processen langt bedre, da man har tiden på sin side. I TV og afspillere skal det ske i realtid.

Opskalering er processen at opskalere fra en opløsning til en anden. Opløsningerne er defineret som de er fordi det sikrer pixelperfekt opskalering. 2x1080 = 2160. 3x720 = 2160 osv. Når man begynder at anvende objekt-baseret analyse til f.eks. at genkende ansigter i billedet, så er der i stedet tale om billedbehandling. Jeg ved at dette er en svær sondring selv for mange anmeldere af TV. Vi undersøger emnet AI-opskalering nærmere i bl.a. anmeldelsen af Samsungs 8K Q900R.

I mange år har der jo også været en meget streng DCI-definition for biografer. Biografer, som ikke bruger DCI-certificeret udstyr, får ikke lov at fremvise filmene. På hjemmefronten har billedoplevelsen i det seneste årti eller lidt mere været kørt ud på et sidespor fordi TV-producenterne mener, at det er deres opgave at "forbedre" billedet. Nu sker det også i afspillerne og det er meget problematisk, synes jeg.
Brugeravatar
Af TBC
#306913
Jeg kan på den gode begavede argumentation sådan rent principielt set jo kun erklære mig helt enig i de grundlæggende ideologiske orienteringer.

Men jeg er også realist og nødt til at forholde mig til resultatet på skærmen. Jeg finder som de fleste andre, inkl. folk i dine egne rækker så at sige, at opskaleringen på diverse TV med AI algoritmer ofte er gode og bedre end mindre avancerede modeller fra konkurrenterne. Hvis producenterne udelukkende benyttede en fuldstændig simpel pixel opskalering så f.eks at en 1080p pixel uden nogen som helst andre algoritmer taget i brug blot blev til en blok af 4 ens pixels på 4K skærmen, så ville det hurtigt tage sig meget ringe og "jagged" ud som opskalering. Det tror jeg faktisk slet ikke der er nogle af producenterne der overhovedet nøjes med at gøre, for så ville deres implementeringer falde pladask på gulvet i forhold til mere avancerede konkurenters, idet der er rigtig mange værktøjer og og redskaber i brug på vejen til en god og funktionel opskalering. AI, eller opskalerings algoritmer baseret op dybe indviklede neurale netværk læring, er blot det seneste og mest avancerede skud på stammen ud af mange andre mere eller mindre avancerede algoritmer allerede i brug ifbm. opskalering.

Vincent Theo som jeg har stor respekt for som grundig, omhyggelig og meget "skarpøjet", nuancerende og opmærksom anmelder roser jo netop også gerne AI opskaleringerne fra bl.a. Sony samt Sonys algoritmer til bekæmpelse af posterization i det til hjemmene, og i forhold til biografen, endog meget ufuldkomne kildemateriale (ikke mindst her i streamingens barndom). Han har også på det seneste bemærket at nyere Samsung TV har fået bedre opskalering. Så uanset ideologiske principper så er jeg overbevist om at det er noget der er kommet for at blive og med tid og forfinelse også vil give endnu bedre resultater i en billedbehandling der helt grundlæggende er uundgåelig og nødvendig som opskalering jo er. Hvordan den balanceres er en anden sag, da algoritmer der gør godt i en sammenhæng kan være mindre gunstige i forhold til en anden algoritme i en anden sammenhæng. Jo bedre billedbehandlingen via maskinlæring bliver til at differentiere i den forbindelse, jo bedre resultater må man også over tid forvente at kunne få.

Tak for en god og begavet debat både her og i disqus-tråden i dag, altid en fornøjelse, men nu må jeg efter min nattevagt og en kommende i nattevagt foran mig hellere få trukket mig tilbage til noget søvn før det bliver alt for sent.