Debat og råd om TV-skærme. Alt hvad der handler om køb og brug af fladskærme

Redaktører: AndreasL, Moderatorer

Af Busch
#316755
Hej.
Er der forskel på 8 k HDMI OG 8 k HDMI DISPLAYPORT. ?? Bliver sku lidt forvirrede :s
Hdmi 2,1 har 19 pin og Hdmi Displayport har 20 pin.

Jeg har Købt en ny pc i9 med Asus geforce 2070 super grafikkort den skal så sættes til min nye Denon
forstærker og derfra til mit LG Oled C 9 TV. 2.1 Hdmi som skal bruges som pc skærm.
Jeg skal bruge 2 kabler 1 stk 1,5 m og 1stk på 2 meter
Hvad skal jeg bruge af de 2 slags kabler ?

Ved om jeg er det rigtige sted her ellers må i slette.

Håber i kan hjælpe.

Mvh Busch
Brugeravatar
Af TBC
#316756
Der er tale om to forskellige formater med forskellige stik. Displayport har generelt højere båndbredde end den samtidige HDMI standard, hvilket også er tilfældet for de to nyeste revisioner. Der findes convertere fra det ene til det andet, men jeg har endnu ikke hørt om convertere til de seneste revisioner, inkl. HDMI 2.1

Da din surroundforstærker næppe er HDMI 2.1 kompatibel, med mindre den er spritny(?), så bered dig på at forbinde din PC direkte til dit TV med et HDMI kabel og ved siden af også din PC direkte til din reciever med et andet HDMI kabel, og så lade den aktive lydudgang på PC'en være den HDMI udgang der går til din surround reciever (Den slags kan en PC heldigvis nemt finde ud af/sættes op til.

Vær opmærksom på at RTX 20xx serien endnu kun har HDMI 2.0, så du kan endnu f.eks. kun køre 4K 120 Hz med 4:2:0 chromadownsampling ind til du får fat i et RTX 30xx serie kort med HDMI 2.1 udgang - Så kan du køre uden chromadownsampling og med fuld 4K funktionalitet.

C9 er i øvrigt en pisse god PC monitor og det er direkte svært at udnytte skærmens muligheder og tilgængelige framerates i 4K med "blot" et RTX 2070 super. Selv går jeg og venter på et RTX 3090 eller hvad det nu end ender med at komme til at hedde - Det vil nok være det bedst tilgængelige match til skærmen det næste lange stykke tid, foruden at det vil skalere i det mindste en smulere bedre til din i9 CPU, selv om det fortsat vil være grafikkortet der vil udgøre flaskehalsen i forhold til fuldere udnyttelse af skærmen i 4K, hvis det er nyere grafiktunge titler og 120 fps man gør sig forhåbninger om i 4K.

Og nej, PS5 og XBox Series X vil heller ikke komme til at udnytte skærmens muligheder fuldt ud ved nyere grafisk tunge spil. F.eks. er det kommet frem at man sagtens kan risikere et 30 fps cap på en titel som Assassin’s Creed Valhalla på konsollerne, idet mange TV kun har VRR fra 48 til 120 fps (C9 og CX har dog 40-120 fps VRR). UbiSoft garanterer ind til videre kun at "Assassin’s Creed Valhalla will run at least 30 FPS" på konsollerne.
Af Busch
#316773
Hej
Mange tak for svar.
Jeg er ikke særlig skarp i det her så det er lidt sort snak for mig :) så bære over med mig.

Du skriver :
bered dig på at forbinde din PC direkte til dit TV med et HDMI kabel og ved siden af også din PC direkte til din reciever med et andet HDMI kabel, og så lade den aktive lydudgang på PC'en være den HDMI udgang der går til din surround reciever (Den slags kan en PC heldigvis nemt finde ud af/sættes op til.

Men jeg har kun 1 hdmi stik bag computer til grafikkort så hvordan skal jeg tilslutte 2 hdmi stik i computer.?? Ja det skal nok skæres ud i pap :)

Så det jeg skal købe er 2 stk Hdmi 8k kabel og ikke Hdmi Displayport ?
F.eks https://www.compumail.dk/da/p/delock-hd ... -993962693

Jeg kan lige så godt købe 8k Hdmi kabel da hvad jeg har læst mig frem til at det er bagudkompatibel. Da jeg som dig ville jeg også købe RTX 30xx serie kort til næste år.

Min ny Denon receiver AVR-X1600H skulle være hdmi 2.1 forberedt.

På forhånd tak.
Af caspermagnusson
#316774
TBC skrev: 13. jul 2020, 06:02 Der er tale om to forskellige formater med forskellige stik. Displayport har generelt højere båndbredde end den samtidige HDMI standard, hvilket også er tilfældet for de to nyeste revisioner. Der findes convertere fra det ene til det andet, men jeg har endnu ikke hørt om convertere til de seneste revisioner, inkl. HDMI 2.1

Da din surroundforstærker næppe er HDMI 2.1 kompatibel, med mindre den er spritny(?), så bered dig på at forbinde din PC direkte til dit TV med et HDMI kabel og ved siden af også din PC direkte til din reciever med et andet HDMI kabel, og så lade den aktive lydudgang på PC'en være den HDMI udgang der går til din surround reciever (Den slags kan en PC heldigvis nemt finde ud af/sættes op til.

Vær opmærksom på at RTX 20xx serien endnu kun har HDMI 2.0, så du kan endnu f.eks. kun køre 4K 120 Hz med 4:2:0 chromadownsampling ind til du får fat i et RTX 30xx serie kort med HDMI 2.1 udgang - Så kan du køre uden chromadownsampling og med fuld 4K funktionalitet.

C9 er i øvrigt en pisse god PC monitor og det er direkte svært at udnytte skærmens muligheder og tilgængelige framerates i 4K med "blot" et RTX 2070 super. Selv går jeg og venter på et RTX 3090 eller hvad det nu end ender med at komme til at hedde - Det vil nok være det bedst tilgængelige match til skærmen det næste lange stykke tid, foruden at det vil skalere i det mindste en smulere bedre til din i9 CPU, selv om det fortsat vil være grafikkortet der vil udgøre flaskehalsen i forhold til fuldere udnyttelse af skærmen i 4K, hvis det er nyere grafiktunge titler og 120 fps man gør sig forhåbninger om i 4K.

Og nej, PS5 og XBox Series X vil heller ikke komme til at udnytte skærmens muligheder fuldt ud ved nyere grafisk tunge spil. F.eks. er det kommet frem at man sagtens kan risikere et 30 fps cap på en titel som Assassin’s Creed Valhalla på konsollerne, idet mange TV kun har VRR fra 48 til 120 fps (C9 og CX har dog 40-120 fps VRR). UbiSoft garanterer ind til videre kun at "Assassin’s Creed Valhalla will run at least 30 FPS" på konsollerne.
Mange tak for det fyldestgørende svar, det hjalp mig :)
Brugeravatar
Af TBC
#316784
Busch skrev: 13. jul 2020, 10:31 Men jeg har kun 1 hdmi stik bag computer til grafikkort så hvordan skal jeg tilslutte 2 hdmi stik i computer.?? Ja det skal nok skæres ud i pap :)

Så det jeg skal købe er 2 stk Hdmi 8k kabel og ikke Hdmi Displayport ?
F.eks https://www.compumail.dk/da/p/delock-hd ... -993962693

Jeg kan lige så godt købe 8k Hdmi kabel da hvad jeg har læst mig frem til at det er bagudkompatibel. Da jeg som dig ville jeg også købe RTX 30xx serie kort til næste år.

Min ny Denon receiver AVR-X1600H skulle være hdmi 2.1 forberedt.
Har grafikkortet ikke 2 HDMI udgange, så har bundkortet gerne en HDMI udgang ifbm integreret GPU funktion i CPU'en. En i9'er skulle gerne have integreret Intel UHD Graphics 630 og dermed en HDMI udgang i selve bundkortet ....Og så kan man naturligvis bare aktivere det og benytte dét som lydudgangen man forbinder direkte til recieveren, mens det diskrete grafikkorts HDMI udgang går til TV'et - ganske som beskrevet i mit første indlæg.

Jeg tjekkede lige manualen og den beskriver at din reciever har support op til 4K 60/50/30/25/24 Hz ....Hvilket lyder som HDMI 2.0
http://manuals.denon.com/AVRX1600H/EU/E ... phpnek.php

Summa summarum så kan du godt AKTUELT med dit HDMI 2.0 grafikkort tilslutte PC til din reciever og din reciever til dit TV og være sikker på at i hvert fald din LYD bliver perfekt, men der kan hurtigt opstå videoproblemer, f.eks hvis du forsøger at benytte VRR ...formentligt vil PC'en via EDID "se" din reciever og ikke dit TV og du vil formentligt kunne risikere at komme til at mangle f.eks. Nvidia GSync kompatibiliteten i dine opsætningsmuligheder på PC'en.

Så den næst-mest optimale og den mere langsigtede løsning i det tilfælde at ens PC virkeligt KUN skulle have én 1 HDMI udgang samlet set, vil være at du forbinder din PC direkte til dit TV. Derfra kan du så få lyden ned til din forstærker via eARC. Jeg har ikke selv erfaringer med eARC, men jeg antager at der ikke burde være problemer med at sende 5.1, 7.1 som PCM ned til recieveren igennem TV'et = ? jeg ved heller ikke hvilke samplingrates eller om alle lossless surroundformater understøttes (DTS HD Master Audio f.eks = ?), men det er der sikkert andre mere eARC vidende der kan svare på.

Hvis ens PC har 2 stk aktive HDMI undgange på den ene eller anden vis, så kan man i hvert fald altid gøre hvad jeg først beskrev med HDMI kabel til hhv TV og reciever - så er man 100% sikker på fuld skrue og hul igennem til alle muligheder uden at noget "sorteres" fra på vejen via diverse kompatibilitets issues. Så sættes det hele op og kontroleres direkte på PC'en uden om diverse kompatibilitetsproblemer man ellers ville kunne støde på i en længere kæde.
_ _ _

HDMI kabler er generelt HDMI kabler. Det væsentlige handler grundlæggende om at de skal være af høj nok kvalitet (og helst ikke for lange - med mindre der er et fiberoptisk baseret kabel) for at kunne understøtte båndbredden nødvendig til 4K@120 Hz, særligt hvis det er HDR. 4K@120 Hz HDR fylder 32.27 Gbit/s - lidt mere båndbredde end 8K@30 Hz der fylder 30.60 Gbit/s - Så selve kabelkvaliteten er det afgørende. Hvis man smider et 8K markat på dem, må man antage at det betyder at de som minimum ikke fejler på 8K@24-30 Hz signal - med mindre det er falsk markedsføring.

Normalt skal det hedde "Category 3 HDMI eller "Ultra High Speed" HDMI, som indikation for at kablet er designed til at supportere op til HDMI 2.1 standardens fulde 48 Gbit/s
caspermagnusson skrev: 13. jul 2020, 10:50Mange tak for det fyldestgørende svar, det hjalp mig :)
Godt at høre :)
Af Busch
#318112
TBC skrev: 13. jul 2020, 06:02 Der er tale om to forskellige formater med forskellige stik. Displayport har generelt højere båndbredde end den samtidige HDMI standard, hvilket også er tilfældet for de to nyeste revisioner. Der findes convertere fra det ene til det andet, men jeg har endnu ikke hørt om convertere til de seneste revisioner, inkl. HDMI 2.1

Da din surroundforstærker næppe er HDMI 2.1 kompatibel, med mindre den er spritny(?), så bered dig på at forbinde din PC direkte til dit TV med et HDMI kabel og ved siden af også din PC direkte til din reciever med et andet HDMI kabel, og så lade den aktive lydudgang på PC'en være den HDMI udgang der går til din surround reciever (Den slags kan en PC heldigvis nemt finde ud af/sættes op til.

Vær opmærksom på at RTX 20xx serien endnu kun har HDMI 2.0, så du kan endnu f.eks. kun køre 4K 120 Hz med 4:2:0 chromadownsampling ind til du får fat i et RTX 30xx serie kort med HDMI 2.1 udgang - Så kan du køre uden chromadownsampling og med fuld 4K funktionalitet.

C9 er i øvrigt en pisse god PC monitor og det er direkte svært at udnytte skærmens muligheder og tilgængelige framerates i 4K med "blot" et RTX 2070 super. Selv går jeg og venter på et RTX 3090 eller hvad det nu end ender med at komme til at hedde - Det vil nok være det bedst tilgængelige match til skærmen det næste lange stykke tid, foruden at det vil skalere i det mindste en smulere bedre til din i9 CPU, selv om det fortsat vil være grafikkortet der vil udgøre flaskehalsen i forhold til fuldere udnyttelse af skærmen i 4K, hvis det er nyere grafiktunge titler og 120 fps man gør sig forhåbninger om i 4K.

Og nej, PS5 og XBox Series X vil heller ikke komme til at udnytte skærmens muligheder fuldt ud ved nyere grafisk tunge spil. F.eks. er det kommet frem at man sagtens kan risikere et 30 fps cap på en titel som Assassin’s Creed Valhalla på konsollerne, idet mange TV kun har VRR fra 48 til 120 fps (C9 og CX har dog 40-120 fps VRR). UbiSoft garanterer ind til videre kun at "Assassin’s Creed Valhalla will run at least 30 FPS" på konsollerne.
Mange tak for din lange beskrivelse. undskyld for det sene svar. <B
Jeg har ikke prøvet at sætte computer op til det endnu. Men jeg ville prøve køre kabel dir til tv og jo jeg har 2 hdmi kabel udgang på min computer så jeg prøver at sætter det andet kabel fra det ene hdmi udgang til forstærker. Jeg vender tilbage med resultat. Takker