Was ist HDR, wie funktioniert es?

Wir alle achten beim Kauf eines Monitors oder Laptops auf verschiedene Display-Funktionen. Zuerst gibt es viele Details wie Auflösung, dann Bildwiederholfrequenz, Verzögerungszeit, Farbtiefe und Kontrast. Es wird berichtet, dass einige Modelle über eine „HDR (High Dynamic Range)“-Verstärkung verfügen, dies wird beworben.

Was ist also dieses HDR, das wir in letzter Zeit oft hören? In diesem Artikel werden wir über die Vorteile von HDR und seine Funktionsweise sprechen.

Mit HDR, das für High Dynamic Range steht, werden Technologien beschrieben, die bei Landschafts- und Bildinhalten, Anzeigetafeln und der Grafikwiedergabe verwendet werden und den Unterschied zwischen den Maximal- und Minimalwerten von Licht und Farbe vergrößern.

Dieser Unterschied wird auch Dynamikbereich genannt und zeigt an, wie oft der Maximalwert höher als der Minimalwert ist. Wenn es beispielsweise um die Monitorbeleuchtung geht, bezieht sich der Dynamikbereich auf das Kontrastverhältnis (maximale Helligkeit geteilt durch geringste Helligkeit).

Diese auf Bildschirmen verwendeten Techniken erhöhen die Qualität der Landschaft und der Unterschied ist spürbar, wenn HDR aktiviert ist. Das menschliche Auge kann unter realen Bedingungen Licht mit einem breiten Kontrastverhältnis unterscheiden.

Die HDR-Technologie trägt dazu bei, feine Details zu bewahren, die in dunklen oder hellen Bereichen verloren gehen würden. Es kann auch die Tiefe und das Spektrum der auf dem Bildschirm angezeigten Farben verbessern. Statische Bilder, Filmsequenzen und gerenderte Grafiken sehen viel günstiger aus, wenn sie auf einem hochwertigen HDR-Display präsentiert werden.

HDR ist wertvoller als die Standardtechnologie, die oft als SDR (Standard Dynamic Range) bezeichnet wird. Aus diesem Grund ist es bei der Erstellung von HDR-basierten Displays erforderlich, komplexere oder schwieriger zu erstellende Segmente zu verwenden. Es verbraucht auch eine größere Menge an Informationen, die verarbeitet und übertragen werden müssen.

Computer und andere technische Geräte erzeugen Bilder auf Bildschirmen, indem sie den Wert eines Farbkanals ändern. Im Bildverarbeitungsprozess werden hauptsächlich die Farben Rot, Grün und Blau verwendet. Alle anderen Farben entstehen durch eine Kombination dieser drei unter Verwendung des sogenannten RGB-Farbmodells.

Es ist bekannt, dass unzählige Pixel in einem Zentrum zusammenkommen, um Bilder von unseren Bildschirmen aufzunehmen. Jedes auf dem Bildschirm reflektierte Pixel besteht aus drei Komponenten: Rot, Grün und Blau (RGB). Alternativ können Luma, blaue Farbdifferenz und rote Farbdifferenz (YCbCr/YPbPr) verwendet werden. Was auch immer der Grafikchip intern verarbeitet (normalerweise 16-Bit-Gleitkomma-RGBA, wobei A für Alpha-/Transparenzinformationen steht), diese Informationen werden in ein Signal für Ihre Anzeige umgewandelt.

In der Vergangenheit war der Standard 24-Bit-Farbe oder 8-Bit für jede der Rot-Grün-Blau-Farbkomponenten. Displays mit HDR und hoher Farbtiefe haben diese auf 10-Bit-Farbe erhöht. Es gibt auch 12-Bit- und 16-Bit-Optionen, diese werden jedoch meist im professionellen Bereich eingesetzt.

Mit anderen Worten: Durch die Verwendung dieser drei Farben ist es möglich, viele verschiedene Farben zu erhalten. Um drei Farben zu addieren, wird ein mathematisches System verwendet, aber dieses System allein ist nicht sehr nützlich. Das Farbmodell benötigt mehr Informationen darüber, wie Farben zu interpretieren sind, um Probleme wie die Funktionsweise des menschlichen visuellen Systems zu berücksichtigen. Das resultierende Ergebnis wird mit Begriffen wie Farbraum, Farbraum oder Farbgamut beschrieben. Es gibt viele verschiedene Kombinationen, aber diese drei Farbraumsysteme sind in den Spezifikationslisten am häufigsten: DCI-P3, Adobe RGB und sRGB.

Diese Farbräume können nicht alle möglichen Farben enthalten, die wir wahrnehmen können, und die Menge der Farben, die sie darstellen können, wird als Farbskala bezeichnet. Diese werden üblicherweise im sogenannten CIE-xy-Chromatizitätsdiagramm dargestellt:


Die Farbskalen von Adobe RGB und sRGB.

In unseren Monitortests sprechen wir gelegentlich über diese Farbräume. Diese Modelle, die zur Messung der abgedeckten Farbräume verwendet werden, basieren auf nur einem Satz mathematischer Berechnungen. Tatsächlich besteht Bedarf an verschiedenen Systemen, um die teure Darstellung in die tatsächliche physische Darstellung des Bildes umzuwandeln.

Anzeigetechnologien und -begriffe sind etwas kompliziert. Eines der wertvollsten Systeme ist die elektrooptische Übertragungsfunktion (EOTF). EOTF ist eine mathematische Messtechnik, die die elektrischen Signale eines digitalen Bildes oder Bildes in angezeigte Farben und Helligkeitsstufen umwandelt.

Tatsächlich müssen viele Benutzer diese Details nicht kennen. Viele Menschen schließen ihre Monitore und Fernseher an und gehen ihrem Tagesgeschäft nach. Für professionelle Content-Ersteller sind diese Details jedoch von unschätzbarem Wert. Darüber hinaus achten Spieler, die eine hohe Auflösung und Bildqualität wünschen, auch auf technische Details.

In Modellen gerenderte Farbkanäle können in verschiedenen Zuständen dargestellt werden, beispielsweise im arithmetischen Bereich [0,1] oder im Prozentwert. Da jedoch Geräte, die alle mathematischen Prozesse ausführen, Binärzahlen verwenden, werden auch Farbkosten in diesem Format gespeichert.

Die Größe digitaler Informationen wird in Bits gemessen und das verwendete Maß wird oft als Farbtiefe bezeichnet. Je mehr Bits verwendet werden, desto mehr verschiedene Farben können erzeugt werden. Heutzutage werden standardmäßig mindestens 8 Bit verwendet. Manchmal findet man die Schreibweise R8G8B8 oder einfach nur 888. Ein einzelnes Bit ergibt zwei Kosten (0 und 1), zwei Bits ergeben Kosten von 2 x 2 = 4, also 8 Bits 2 x 2 x … (8 mal) = 256.

Multiplizieren Sie es mit 256 x 256 x 256 und Sie erhalten 16.777.216 RGB-Kombinationen. Diese Maßnahme erscheint Ihnen möglicherweise zu viel, und das ist es auch. Um mehrere Landschaften zu erzielen, reicht eine viel geringere Anzahl an Farben aus, aber natürlich muss der 8-Bit-Industriestandard alle Anforderungen erfüllen.


Farbwechsel des roten Kanals abhängig von der Anzahl der verwendeten Bits.

Konzentrieren wir uns zunächst auf einen einzelnen Farbkanal. Sie können den Unterschied in der Änderung des roten Kanals in Abhängigkeit von der Anzahl der verwendeten Bits oben erkennen. Wie Sie deutlich sehen können, ist 8 Bit im Vergleich zu anderen viel klarer und flüssiger. Die rote Farbe sieht in diesem Zustand so gut aus und es besteht keine Notwendigkeit, weitere Bits zu verwenden. Doch es gibt unzählige Umgebungen, Grafiken und Bilder, die der Bildschirm darstellen muss.

Sobald Sie mit dem Mischen von Farben beginnen, reichen 8 Bit nicht mehr aus. Abhängig vom dargestellten Bild lassen sich leicht markierte Bereiche erkennen, in denen die Farbe von einem Preispunkt zum anderen zu springen scheint. Im Bild unten werden die Farben auf der linken Seite mit 2 Bit pro Kanal simuliert, während auf der rechten Seite standardmäßig 8 Bit verwendet werden.


Simulierte Farben mit 2 Bit pro Kanal links und Standard 8 Bit rechts.

Obwohl der obere Teil der rechten Seite ganz normal aussieht, zeigt ein genauer Blick auf den unteren Teil, dass 8-Bit-Farbe nicht ausreicht. Um sozusagen ein perfektes Bild zu erhalten, ist es notwendig, eine höhere Farbtiefe zu verwenden. An dieser Stelle reichen 10 oder 12 Bit vollkommen aus. Denn selbst bei 10 Bit gibt es 1024 verschiedene Stufen im Farbverlauf eines Farbkanals. Mit anderen Worten: Im Vergleich zu 8 Bit können viermal mehr Farbänderungen erzielt werden.

Die Verwendung einer größeren Farbtiefe wird noch wertvoller, wenn ein sehr großer Farbraum verwendet wird. sRGB wurde vor mehr als 20 Jahren von Hewlett Packard und Microsoft entwickelt. Obwohl es alt ist, ist es immer noch eine geeignete Technik für heutige Bildschirme, da standardmäßig 8 Bit verwendet werden. Andererseits verfügt der ProPhoto RGB-Farbraum von Kodak über einen so großen Farbumfang, dass 16-Bit-Farbkanäle erforderlich sind, um Streifenbildung zu vermeiden.

Viele der heutigen Computermonitore, Fernseher, Tablet- und Telefonbildschirme verwenden eine von zwei Technologien zur Darstellung von Landschaften: LCD (Liquid Crystal Display) oder LED (Light Emitting Diodes).

Die meisten derzeit verwendeten Monitore verfügen über LCD-Panels. Wenn Sie den Monitor zerschlagen und auf den Bildschirm schauen, sehen Sie etwa Folgendes:


LCD-Anzeigefeld.

Sie können deutlich die RGB-Farbkanäle erkennen, aus denen jedes Pixel (Bildelement) besteht. In diesem Beispiel ist jedes Quadrat tatsächlich ein kleiner Filter, der nur diese Lichtfarbe durchlässt. Bildschirme, die LEDs verwenden (wie Premium-Monitore und OLED-Panels bei Premium-Telefonen), müssen diese nicht verwenden, da sie die Lichtfarbe direkt erzeugen.

Unabhängig von der verwendeten Technologie gibt es eine Grenze für die Übertragung und Ausbreitung von Licht. Dieses Maß wird als Leuchtdichte bezeichnet und in Nits oder Candela pro Quadratmeter gemessen. Wir können sagen, dass ein gewöhnlicher Monitor einen Helligkeitswert von etwa 250 Nits hat. Diese Kosten werden ermittelt, indem alle Pixel auf Weiß gesetzt werden. Also maximale Kosten für jeden RGB-Kanal.

Etwas schwieriger ist es hingegen, den Mindestwert zu ermitteln. LCD-Bildschirme nutzen Flüssigkristalle, um das Eindringen von Licht zu verhindern. Das gesamte Licht kann die Kristalle nur zeitweise durchdringen. Das ist zwar ein kleines Maß für die Helligkeit, nur 0,2 Nits, aber wenn wir vom Dynamikbereich sprechen, stimmt etwas nicht. maximalUnd MinimumWir möchten Sie noch einmal daran erinnern, dass es sich um Preise handelt.

HDR-Standard

Nehmen wir an, die maximale Helligkeit beträgt 250 und mindestens 0,2 Nits. Als Ergebnis wird der Dynamikbereich berechnet; 250/0,2 = 1250. Da es sehr schwierig ist, die Mindesthelligkeit bei LCD-Bildschirmen zu verringern, entscheiden sich Hersteller dafür, den Dynamikbereich durch Erhöhen der Maximalhelligkeit zu verbessern.

Bildschirme, die Licht aussenden, anstatt es durch Kristalle zu übertragen, sind in dieser Hinsicht deutlich erfolgreicher. Bei ausgeschalteten LEDs ist die Mindesthelligkeit so gering, dass eine Messung nicht möglich ist. Beispielsweise verfügen Displays mit OLED-Technologie (Organic LED) über ein theoretisch unendliches Kontrastverhältnis. Dadurch sind die Farbübergänge einwandfrei, diese Panels wirken jedoch deutlich wertiger.

Nehmen wir ein Beispiel an einem Mittelklasse-Monitor. Der TUF Gaming VG279QM verwendet ein hintergrundbeleuchtetes LCD-Panel mit LED-Reihen. ASUS hat erklärt, dass dieser Gaming-Monitor über HDR-Fähigkeit und zwei Zertifizierungen verfügt: HDR10 und DisplayHDR 400.

HDR10

HDR10 ist ein von der Consumer Technology Association erstellter Bildformatstandard, der verschiedene technische Aspekte für Farbraum, Farbtiefe, Übertragungsfunktion und mehr spezifiziert.

Während sRGB eine relativ einfache Gammakurve für die Übertragungsfunktion verwendet, verwendet dieser Standard eine Kurve namens Perceptual Quantizer (PQ), die sich viel besser für Inhalte mit hohem Dynamikbereich eignet. Genau, der Farbraum (ITU-R-Empfehlung BT.2020) für dieses Format hat auch einen größeren Farbumfang als sRGB und Adobe RGB.

Darüber hinaus erfordert diese Spezifikation eine Farbtiefe von mindestens 10 Bit, um Streifenbildung zu vermeiden. HDR10 umfasst außerdem feste Metainformationen (mehr Informationen über das gesamte auf dem Bildschirm angezeigte Bild, damit der Bildschirm die Bildsignale anpassen kann) und eine 4:2:0-Chroma-Unterabtastungsbasis bei Verwendung der Komprimierung.

Andererseits gibt es verschiedene HDR-Bildformate: HDR10+, HLG10, PQ10, Dolby Vision). Sie unterscheiden sich in Lizenzkosten, Übertragungsfunktion, Metainformationen und Kompatibilität. Allerdings verwenden die meisten von ihnen den gleichen Farbraum und die gleiche Tiefe.

AnzeigeHDR 400

DisplayHDR 400 ist eine weitere Zertifizierung der VESA (Video Electronics Standards Association). Während sich bei HDR10 und anderen alles um Inhalte dreht, deckt diese Zertifizierung die Hardware ab, die die Inhalte anzeigt.

Die DisplayHDR400-Einstufung stellt die niedrigste Stufe dar, seit HDR das Wort ist. Monitore mit diesem Zertifikat sind in HDR nicht sehr gut. Tatsächlich dürfte die Anzahl der Werke, die das DisplayHDR 400-Tag tragen, hoch sein.

VESA verlangt von Herstellern absolute Anforderungen an Helligkeit, Farbtiefe und Farbraumabdeckung von Monitoren, bevor sie eine Zertifizierung beantragen. In der Tabelle sind einige Regeln aufgeführt:


VESA HDR-Zertifizierungsanforderungen.

HDR-Formate und Zertifizierungen sind recht komplex. Möglicherweise gibt es Anzeigeoptionen, die Inhalte in verschiedenen HDR-Formaten liefern können, aber nicht von VESA oder der UHD Alliance (einer anderen Standardisierungsorganisation) zertifiziert sind. Im Gegenteil kann es Monitore mit mehreren Zertifikaten geben, die Inhalte nicht mit hohem Dynamikumfang anzeigen können.

Derzeit gibt es in der Technologiewelt nur einen Displaytyp, der das volle HDR-Erlebnis bietet, und das ist OLED. OLED-Panels sind im Dynamikbereich konkurrenzlos und können eine Helligkeit von über 1000 Nits liefern.

Wenn Sie Filme mit hohem Dynamikumfang ansehen möchten, benötigen Sie drei Dinge: einen HDR-Fernseher oder -Monitor, ein Wiedergabegerät, das HDR-Formate unterstützt, und ein HDR-kodiertes Kino. Außerdem ist eine gute Internetverbindung wichtig, um HDR-Inhalte online anzusehen.

Wenn Sie beispielsweise ein anderes Gerät als einen PC verwenden, muss der aktuelle Blu-ray-Player oder der für Streaming-Dienste verwendete Dongle HDR-verstärkt sein.

Zurück zum Streaming: Plattformen wie Disney Plus, Netflix und Prime Display bieten Inhalte an, die in einem der HDR-Formate kodiert sind. Diese Art von Inhalten ist jedoch begrenzt.

Wenn Sie HDR-Filme auf Ihrem Computer ansehen möchten, müssen Sie erneut einige Anforderungen erfüllen. Ihre Grafikkarte und Ihr Display müssen HDCP 2.2 unterstützen und HEVC-Codecs müssen unter Windows installiert sein. Es gibt auch das seltsame Detail, dass Netflix nur 4K HDR-Streams in Microsoft Edge und der Windows-App unterstützt. Disney Plus und Prime Image funktionieren in den meisten Browsern.

Um 3D-Grafiken zu erstellen, führten Grafikchips früher alle Berechnungen mit 8-Bit-Ganzzahlwerten für jeden Farbkanal durch und speicherten die fertige Szene in einem Speicherblock (Frame-Puffer genannt) mit derselben Farbtiefe. Heutige GPUs erledigen die meisten dieser Berechnungen mit 32-Bit-Gleitkommazahlen, und der Framebuffer ist oft eins zu eins.

Der Grund für diese Änderung war die Verbesserung der Renderqualität. Wie bereits erwähnt, führt es bei Verwendung einer geringen Farbtiefe offensichtlich zu Streifenbildungsproblemen. Durch die Verwendung hochpräziser Zahlen können Spieleentwickler ihre Spiele auch mit einem hohen Dynamikbereich erstellen.

Eines der ersten Spiele, das HDR-Rendering nutzte, war Half-Life 2 Lost Coast. Im Bild unten sehen Sie links das Standardbild und rechts das HDR-basierte Bild:

Als erster technischer Versuch wirkt die Grafik in Lost Coast etwas übertrieben. Allerdings wurde die Lost Coast-Erweiterung in erster Linie als Demonstration neuer Funktionen in der Prozess-Engine entwickelt.

Derzeit sind moderne 3D-Spiele mit HDR ausgestattet, sofern Sie keinen Monitor haben, der keinen Boost bietet. In solchen Fällen wird ein zusätzlicher Prozess (Tone Mapping) verwendet, um das Format des fertigen Frames an den SDR-Bildschirm anzupassen.

Nur wenige Spiele bieten eine direkte Möglichkeit für HDR-Monitore. Einige Spiele verfügen nur über HDR-Aktivierungseinstellungen, während andere zusätzliche Einstellungen hinzufügen, um sie entsprechend den Bildschirmeigenschaften zu konfigurieren.

Windows 11 Auto HDR

Lassen Sie uns andererseits über die Auto-HDR-Funktion sprechen, die mit Windows 11 eingeführt wurde. Die mittlerweile nicht weit verbreitete Funktion zwingt Spiele dazu, einen Algorithmus auf dem SDR-Framepuffer des Systems auszuführen, wenn Spiele die DirectX 11- oder 12-API von Microsoft verwenden, und ordnet ihn einem HDR zu .

Die Ergebnisse von Auto HDR variieren je nach Spiel. Bei manchen Spielen bemerken Sie möglicherweise kaum einen Unterschied, bei manchen treten jedoch große visuelle Veränderungen auf.

Sie können Auto HDR (Auto HDR) aktivieren, das mit Windows 11 verfügbar ist, um Farben in besserer Qualität in unterstützter Hardware und Spielen zu sehen.

Ihr Gaming-Computer kann 4K-Displays unterstützen, aber wenn Sie die visuelle Qualität verbessern möchten, kann die High Dynamic Range (HDR)-Funktion für Sie nützlich sein.

HDR-Displays bieten einen satteren, lebendigeren Farbraum, um die zusätzlichen Pixel auf Displays mit höherer Auflösung besser zu nutzen. So sehr, dass Ihr Spiel es unterstützen muss.

Das Betriebssystem Windows 11 verfügt über die Auto-HDR-Funktion, um dieses Problem zu lösen. Die neue Funktion kann den Farbumfang und die Helligkeitsstufen für Tausende von DirectX 11- und 12-Spielen sowie für Spiele, die HDR nicht nativ unterstützen, erhöhen.

Was ist Auto HDR?

Windows 11 Auto HDR Boost berechnet automatisch SDR-Inhalte und versucht, diese so nah wie möglich an HDR zu rendern. Somit ist es möglich, Spiele, die HDR nicht unterstützen, in einer Form zu spielen, die der HDR-Qualität nahe kommt.

Möchten Sie nicht, dass dunkle Farben dunkler und helle Farben heller erscheinen? Um diese Änderungen in Aktion zu sehen, muss zunächst die Auto HDR-Funktion aktiviert werden.

Mit OLED-Bildschirmen können wir das beste HDR-Erlebnis erzielen, denn wie Sie wissen, sind diese Monitore sehr wertvoll. Andererseits verfügen Monitore nicht über mehr als eine HDR-Verstärkung, auch wenn dies der Fall ist, sehen wir Zertifizierungen auf niedrigem Niveau.

Microsoft und andere Unternehmen haben versucht, die Verwendung von HDR zu fördern, aber Hardware mit dieser Funktion ist immer noch sehr wertvoll. Aus diesem Grund dauert es für Technikbegeisterte verzögert, sich mit HDR und der Verbreitung der Technologie vertraut zu machen.

Darüber hinaus ist es unwahrscheinlich, dass Sie mit dem Ergebnis zufrieden sein werden, selbst wenn Sie einen erschwinglichen HDR-Monitor kaufen. Diese Modelle verfügen nicht über genügend Dynamikbereich, um die Details hervorzuheben. Dennoch wird die HDR-Technologie von Tag zu Tag billiger und mit der Zeit immer zugänglicher.

Ähnliche Beiträge

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert