Es scheint so, als würden die 4K OLED & UHD Fernseher aus LGs 2020er-Lineup nicht die vollen HDMI 2.1 Spezifikation unterstützen. Angeblich liefern die Chips „nur“ eine maximale Datenrate von 40 Gbit/s.
Die Verwirrung um den HDMI 2.1 Standard nimmt kein Ende. So soll Sony bereits HDMI 2.1 fähige Chipsätze in seinen TV-Geräten aus 2018 und 2019 verbaut haben, schaltet diese Funktionen aber nicht frei. Auch Samsungs 2020 QLED Fernseher unterstützen 4K/HDR/120fps Bildsignale bei 4:4:4 Chroma, werden jedoch nicht offiziell mit HDMI 2.1 beworben. Als Kunde hat man es aktuell nicht ganz so leicht, wenn man auf der Suche nach einem zukunftssicheren TV-Gerät ist. Jetzt scheint sogar Schnittstellen-Pionier LG Electronics bei TV-Geräten „gemogelt“ zu haben.
LG TV aus 2019 unterstützen volles HDMI 2.1
Seit dem 2019er Lineup bewirbt LG seine OLED und Premium UHD (NanoCell) Fernseher mit der HDMI 2.1 Schnittstelle. Die Vorjahres-Geräte sollen die Schnittstelle auch voll ausnutzen können. Jetzt hat LG jedoch gegenüber dem Forbes-Magazin eingeräumt, dass die meisten der neuen 2020er TV-Geräte (4K & UHD) nicht in der Lage sind die volle Bandbreite der HDMI 2.1 Anschlüsse mit 48 Gbit/s zu nutzen. Die 48 Gbit/s werden benötigt um unkomprimierte 4K Bildsignale mit 120fps, 12-Bit Farbtiefe und 4:4:4 Chroma verarbeiten zu können.
OLED & Nanocell aus 2020 wurden „abgespeckt“
Alle HDMI 2.1 Eingänge des WX, GX und CX Modelle unterstützten „nur“ 10-Bit Farbtiefe, 4:4:4 Chroma bei 4K/120fps. Das entspricht eher einer Datenrate von rund 40 Gbit/s. Lediglich die 8K-Modelle ZX (OLED) NANO99, NANO97 und NANO95 sind jeweils mit zwei HDMI 2.1 Anschlüssen ausgestattet, die die vollen 48 Gbit/s verarbeiten können. Die TV-Geräte die mit einem Alpha 7 (Gen2) Bildprozessor ausgestattet sind, also BX (OLED), NANO91, NANO90 und NANO86 sind mit jeweils zwei „gestutzten“ 40 Gbit/s HDMI 2.1 Anschlüssen und zwei HDMI 2.0b Anschlüssen (4K/60fps mit 10bit und 4:4:4) ausgestattet.
HDMI 2.1 Übersicht – LG Fernseher:
Modell | HDMI 2.1 (48 Gbit/s) |
HDMI 2.1 (40Gbit/s) |
HDMI 2.0b (18 Gbit/s) |
2020 ZX 8K OLED | 2x | 2x | – |
2020 Nano99 8K LCD | 2x | 2x | – |
2020 Nano97 8K LCD | 2x | 2x | – |
2020 Nano95 8K LCD | 2x | 2x | – |
2020 WX 4K OLED | – | 4x | – |
2020 CX 4K OLED | – | 4x | – |
2020 GX 4K OLED | – | 4x | – |
2020 BX 4K OLED | 2x | 2x | |
2020 NANO91 4K LCD | – | 2x | 2x |
2020 NANO90 4K LCD | – | 2x | 2x |
2020 NANO86 4K LCD | – | 2x | 2x |
2019 Z9 8K OLED | 4x | – | – |
2019 SM99 8K LCD | 4x | – | – |
2019 W9 4K OLED | 4x | – | – |
2019 C9 4K OLED | 4x | – | – |
2019 E9 4K OLED | 4x | – | – |
2019 B9 4K OLED | 4x | – | – |
Aus Kundensicht ist es absolut unverständlich, wieso LG das HDMI 2.1 Feature im 2020er Lineup „verwässert“. Angeblich hat sich LG Electronics für die niedrigeren HDMI-Spezifikationen entschieden, weil es am Markt keine Inhalte gibt, die jeweils von den 48 Gbit/s Gebrauch machen könnten. In diesem Punkt stimmen wir LG sogar zu. LG hat sich auch in einem offiziellen Statement im Forbes-Magazin an seine Kunden gewandt:
„Basierend auf der Marktsituation hat sich LG dazu entschieden, die Hardwareressourcen von 2020-Chipsätzen neu zuzuweisen, für eine Optimierung der AI-Funktionen einschließlich der CPU und GPU, wodurch die volle Bandbreite nur über zwei HDMI-Anschlüsse der 2020 8K-TV-Serien (ZX-Serie, NANO99, NANO97, NANO95) im vollen Umfang abgerufen werden kann. Die restlichen Anschlüsse von 8K-Fernsehgeräten und alle HDMI 2.1-Anschlüsse von 4K-Fernsehgeräten haben eine geringere Bandbreite als 48 Gbit / s, unterstützen jedoch bis zu 4K/120fps, 4:4:4 Chroma mit 10-Bit Farbtiefe. Wir entschuldigen uns, dass wir diese Informationen ihnen nicht früher mitgeteilt haben.“
Sinnvolle Umschichtung der Ressourcen
Im Endeffekt dürfte es den Kunden weitaus mehr bringen, wenn die Ressourcen der CPU und GPU für Funktionalitäten, wie z.B. der Verbesserung der Bild- und Audioqualität mittels AI (Künstlicher Intellitenz) genutzt werden. Wir können uns zu diesem Zeitpunkt nicht vorstellen, dass es irgendwann Signalquellen für private Haushalte bereitgestellt werden, die unkomprimiertes 4K/120fps Material mit 12-bit und voller 4:4:4 Farbunterabtastung unterstützen. Eine aktive Kommunikation seitens LG Electronics an seine Kunden wäre wünschenswert gewesen, das Unternehmen hat sich aber sicherlich bewusst dazu entschieden, die Änderungen vorzunehmen ohne Presse und potenzielle Käufer darüber einzuweihen.
2019er Modelle sind immer noch eine gute Wahl
Am Ende bleibt es dabei. Die OLED und NanoCell TVs mit 4K und 8K Auflösung bleiben aus unserer Sicht, vor allem wegen der HDMI 2.1 Schnittstelle und der guten Bildperformance immer noch eine Top-Wahl. Wem der Umstand des „abgespeckten“ HDMI 2.1-Anschlusses Magenstechen bereitet, kann sich auch getrost einen Vorjahresmodell (Z9, B9, C9, E9, W9 usw.) ins Haus holen. Die Unterschiede zum 2020er Lineup sind in unseren Augen nur marginal.
Macht ja wirklich Sinn 48 zu verbauen wenn ein 10 Bit Panel nur 40 wiedergeben kann Daher hat LG alles richtig gemacht. Für das Panel reichen 40 absolut.
Die Quadrophonie aus den Siebzigern lässt grüssen ! Damals ist man an die Grenzen der analogen Audiotechnik gegangen und hat am Ende einen Millionen-Flop gelandet, weil es der Kunde nicht mehr verstanden hat. Und das nur, um neue Märkte zu erschliessen (oder besser: die Sättigung aufzuhalten).
Nun sind wir bei der digitalen Videotechnik genau an diesem Punkt angelangt. Wieder ist man an den Grenzen angelangt, denn die Zuschauer im Kino sind mit 2K, das ist etwas mehr als HD, aber deutlich weniger als 4K zufrieden ! Zuhause ist nun UHD, das ist etwas weniger als 4K üblich, doch die Filme sind eben immer noch 2K, damit die Special Effects nicht zu teuer in der Produktion werden.
8K versteht nun der Durchschnittskunde nicht mehr, denn für ergibt sich daraus kein Mehrwehrt mehr und für die Industrie wird die dafür notwendige Technik teuer. Die Hoffnung, hier neue Märkte zu erschliessen (oder besser: gegen die Sättigung an Unterhaltungselektronik anzukämpfen) dürfte erneut in einem millionenschweren Flop enden.
Die Kennzahlen der Ceconomy (Media Markt /Saturn) sprechen ja eine deutliche Sprache !
Am problematischsten ist wohl wie die kommenden HDMI 2.1 GPUs ihre Bilder ausgeben. Aktuell ist es wohl nicht möglich bei nvidia über HDMI 10bit mit 4:4:4 auszugeben, z.B. in 1080p (4K geht wegen der HDMI 2.0 Bandbreite nicht). Es stehen nur 12bit oder 8bit zur Auswahl oder man wählt eine Farbunterabtastung. 12bit würde dann in 4:4:4 bei 120Hz in 4K nicht mehr gehen, da das 48Gbps braucht, 8bit würde HDR nur mit Dithering ermöglichen. Bleibt zu hoffen, dass nvidia das erkennt und 10bit 4:4:4 spätestens bei den HDMI 2.1 GPUs ermöglicht.
Außerdem ist die LG Kommunikation dazu mehr als dürftig, v.a. es erst nach Release der Geräte zu verkünden und dann auch nur nachdem man von Forbes darauf angesprochen wird. Anfangs wurden in den USA auf der Produktseite sogar die vollen 48GBps beworben und erst später ersetzt wie jemand im AVSForum herausgefunden hat.
Beim HDTVTest-Kanal auf YouTube gibt es ein Video mit Vincent Teoh, das sich mit der praktischen Bedeutung der „nur“ ca. 40 GBit/s auseinandersetzt. Das dürfte für Leute mit guten Englischkenntnisse interessant sein.
https://www.youtube.com/watch?v=GFJmjKJGx5o
Ergebnis des Videos auf Deutsch in der Kurz-Kurzversion: Viel Lärm um nichts.
Leute,
Ihr habt was wesentliches vergessen! DIE KABEL!
Es geht nicht nur um die Schnittstellen, sondern auch die Kabel und die Kabellängen.
Mit „normalen“ 2.1 HDMI Kupferkabeln kommt man an Grenzen, denn die Kabellänge ist
begrenzt, wenn man mal Richtung 40Gbit/sec geht. 40Gbit/sec ist mal ne richtig Hausnummer,
deshalb muss ich immer so lachen, wie realitätsfremd manche Leute sind und denken
es sei kein Problem mal kurz so Datenmengen zu transportieren.
In Wirklichkeit ist das ein Mega Act, zumal man das ganze ja störungsfrei möchte.
Ruckler und Aussetzer sind für mich absolute No-Gos!
Also wenn man mit Längen aggiert die weit über 5 Meter liegen, welche im HEIMKINO normal sind, kommt man mit „normalen“ HDMI 2.1. Kabel nicht weit.
Dann muss man mit „Opto-Koppler“ arbeiten und die kosten richtig Geld.
Ist sogar teilweise bei HDMI 2.0 und „nur“ 18Gbit/sec so, dass bei längeren Wegstrecken in einem HEIMKINO mit Oppto Koppler gearbeitet werden muss, weil 10 Meter und mehr funktioniert 4k mit YUV 4:4:4 und 12 Bit/60Hz nicht mehr – das ist Fakt!
Wenn man die Quantisierung auf 10 Bit bzw. lächerliche 8bit reduziert, hat man zwar auch ein 4k Bild, aber eben nicht mit der vollen Quantisierung. Die Datenmenge reduziert sich aber deutlich!
Zum Trost kann ich aber sagen, 4K@120@10Bit/HDR in Spielen vielleicht mal kommen könnte.
Bei Filmen eher nicht. Selbst 4K@60@10Bit/HDR wird NIEMALS der Massenmarkt werden, zumal dies schon mit HDMI 2.0. funzt. Der Filmook (siehe GEMINI MAN) ist umstritten.
Im Grunde ist HDMI 2.1. immernoch ein Standard, denn vielleicht ein paar Spiele NERDS brauchen, aber selbst anspruchsvolle HEIMKINO Freaks kommen mit HDMI 2.0. gut klar ohne Qualitätsverluste!
Das die Industrie die Leute verar….. mit HDMI 2.1. ist ein alter Hut. Manche NERDS brauchen das…die neueste Technologie zu haben…auch wenn es nicht viel in der Praxis nützt.
Das 8k nur per HDMI 2.1. geht wäre eine Systemmindestanforderung, aber wir wissen ja, wie es um 8k steht.
Wunschdenken der Industrie und in der Praxis braucht es kein PRIVAT Mensch, selbst ein EXTREMO wie ich, der ein etwas grösseres HEIMKINO hat.
Bis jetzt hat sich keiner in meinem HEIMKINO beschwert, bei meiner 4k LASER Leinwand Projektion, dass das Bild noch besser sein müsste, als das gebotene.
Die meisten sagen eher, daß diese „geflasht“ sind von dem Bildeindruck und der Präzision.
Man sollte die Prioritäten eher auf andere, wichtigere Dinge setzen.
1. Egal ob TV oder Beamer – ohne Kalibrierung geht schon mal gar nichts!
2. Entweder der Zuspieler oder der Beamer MUSS eine aktive HDR Steuerung besitzen!
Ich kenne noch keinen TV, der folgendes, was ich nun beschreibe, macht….
vielleicht kommt es noch…
4kHDRFilme werden entweder mit 1000 Nits oder 4000 Nits gemastert.
Problem ist, das der 4kHDRFilm genau auf die ELOTF-Kurve angepasst sein muss, wie diese
im Studio gemastert und verwendet wurde.
Warum ist dies so wichtig?
Wenn die Kurve nicht angepasst ist und kein AKTIVES REGELWERK eingreift (wie z.Bsp. adaptives HDR bei JVC oder HDR Optimizer bei Panasonic) ist bei der Wiedergabe das HDRBild entweder zu hell oder zu dunkel.
Die Regelung (welche natürlich das Gerät unterstützen muss) wird dann die Bilder in ECHTZEIT analysieren.
Bei hellen Szenen wird die Helligkeit automatisch so angepasst, das nichts überstrahlt oder das Bild übersteuert und clippt. Bei dunklen Szenen bleibt das Bild „schwarz“ aber der In-Bild Inhalt wird so detaliert herausgearbeitet, das man trotzdem alles im dunklen sieht.
Ich hoffe ich konnte dies mit deutscher Sprache ausdrücken wie ich das meine.
Am besten kann man dies mit UHD Bluray AQUAMAN testen in der Hafen Szene. Bei den meisten sieht man in dieser HDR Szene ausser der Nachtlaterne nichts!
Bei optimalen Geräten sieht man jedes Haus in der Ferne in der Fischerstadt und sogar
leichte Differenzierungen im Nachthimmel in der Farbe.
Apropo Farbe. Farbraum ist auch so ein Thema. Wenn die HDR Abstimmung nicht passt, dann mangelt es oft auch am Farbraum, das dieser richtig wiedergegeben wird.
Hierzu nehme ich gerne den Film PACIFIC RIM. Die Nachtszenen in diesem Film sind der Knaller – vor allem die NEON Farben.
Viele meiner Besucher haben mir schon mitgeteilt, das diese solche Farben noch nie gesehen haben, was auch daran liegt das gewisse Farben mit den alten Farbräumen alle BT.709 (HD Farbraum) gar nicht darstellbar waren. Bsp. die Farbe GOLD.
Diese Farbe sieht in HD immer „gelb“ aus aber nie „Gold“ wie es sein sollte.
Sorry, der Schluss ging etwas am HDMI 2.1. Thema vorbei, aber ich wollte für einige hier den Blick erweitern, das HDMI 2.1. NICHT das Must-have ist.
Andere Dinge sind wesentlich wichtiger….
BLEIBT GESUND!
Nachdem ich das gelesen habe, frage ich mich, was ich für ein Idiot bin, die meisten Filme über einem Apple TV zu schauen. Sie wissen nicht zufällig, wie schlecht das konvertiert ist?
Ich vermute mal, die einzige möglichkeit das beste Bild zu bekommen, ist UHD Blu-ray? Wenn ja, können sie mir nen Player empfehlen, der alles beschriebenen Zukunftsfähig unterstützt?
Mahlzeit, wahr schon lange nicht so wütend wie im Augenblick.
Hab mir letzte Woche gerade das LG Oled 55CX97 gekauft und dann muss ich sowas lesen wo mir erzählt wurde das es alle funktionieren unterstützt und keine Einschränkungen gibt.
Der Verkäufer kann sich freuen wenn ich morgen bei ihm antanze.
Woher soll der Verkäufer das gewusst haben? Und was für Inhalte möchtest du bitte auf dem OLED wiedergeben, die die kompletten 48 Gbit/s benötigen? In Zukunft werden Inhalte durch neue Codecs eher noch weniger Bandbreite benötigen. Also ich würde mich persönlich jetzt darüber nicht aufregen. Wie im Artikel angemerkt, Inhalte die die volle Bandbreite ausnutzen wird es sicherlich nicht geben!
„Die 48 Gbit/s werden benötigt um unkomprimierte 4K Bildsignale mit 120fps, 12-Bit Farbtiefe und 4:4:4 Chroma verarbeiten zu können.“
Wie ist das denn mit komprimierten Bildsignalen über 40 GBits/s HDMI 2.1? Können diese LG TVs die verarbeiten?
„[…]maximale Datenrate von 40 Gbit/s.“
Bandbreite. Nicht Datenrate. Das bringt John Archer in seinem
Artikel leider auch durcheinander.
Die Bandbreite von HDMI 2.1 sind 48 GBit/s. Die Datenrate aber „nur“ 42,66 Gbit/s.
Bei HDMI 2.0b ist die Bandbreite bspw. 18 GBit/s und die Datenrate 14,4 GBit/s.
Hier geht es aber ja um die Bandbreite, die 40 GBit/s sind. Folglich wäre die Datenrate noch etwas niedriger.
Unterm Strich bin ich aber mal gespannt, was das für Auswirkungen hat, da 4K@120@10Bit/HDR ja 40,1 GBit/s Bandbreite verlangt. Wäre ja knapp über der Grenze. Wäre peinlich, wenn die 2019er das können, die 2020er aber nicht.
P.S.: Die Samsung TVs haben auch nur einen einzigen 40 GBit/s Port.
Der Sony XH90 hat einen 48 GBit/s Port und der Sony ZH8 einen 40 GBit/s Port ^__^
Komplettes Durcheinander.
Am Ende reichen die 40Gbit/s aber bei allen aus. Wichtiger ist es eigentlich zu checken, welche HDMI 2.1 Features die jeweiligen TVs unterstützen, also eARC, ALLM, VRR usw.
Es ist halt die Frage.
4K@120@10Bit/HDR verbraucht halt 40,1 GBit/s.
Das sind zwar nur 0,1 GBit/s mehr. Da muss man halt schauen,
wie genau es die Hersteller da nehmen, oder ob die da noch etwas Puffer nach oben haben. Aber theoretisch liegt eben auch der Wert über den 40 GBit/s.
Die „40 Gbit/s“ sind mit Sicherheit abgerundet. LG werden die Möglichkeiten ihrer TVs wohl kaum an einem Unterschied von 0,1 Gbit/s scheitern lassen. Die Kunden interessiert nur, was das Gerät kann, nicht was es fast könnte. Das werden die Verantwortichen von LG mit Sicherheit auch wissen.
Hier das Original-Zitat aus dem Quellartikel:
„LG tells me now, though, that while all the HDMIs on its premium 2019 TVs were indeed full 48Gbps examples, all four HDMIs on the WX, GX and CX OLED TVs will instead handle 10-bit (rather than 12-bit) 4K at 120Hz with RGB 4:4:4 chroma sampling. This implies a likely 40Gbps data rate.“
Die 40Gbps sind also kein direktes Zitat von LG, sondern eine klar abgerundete Berechnung des Autors des Artikels auf Forbes.com.