Was ist der Unterschied zwischen „Fake HDR“ und echtem HDR in Belichtungsreihe?
Der einzige Unterschied besteht darin, wie weit oder eng Sie sich entscheiden, den Begriff High Dynamic Range Imaging (HDR) zu definieren . Verwenden Sie den breiteren Begriff, wie er seit über 150 Jahren in der Vergangenheit verwendet wird, um Techniken zu referenzieren, mit denen eine Szene mit einem höheren Dynamikbereich als dem Dynamikbereich des Anzeigemediums angezeigt wird? Oder bestehen Sie auf einer sehr engen Definition, die Techniken verwendet, die erst seit einigen Jahrzehnten bekannt sind, um zu argumentieren, dass die einzig legitime Definition von HDR eine 8-Bit-Version einer 32-Bit-Gleitkomma-Lichtkarte ist, die von erstellt wurde mehrere Belichtungsreihen kombinieren? Das wars so ziemlich.
HDR, wie der Begriff heute allgemein verwendet wird, ist nur eine Form der High Dynamic Range Imaging (HDRI) , die seit mindestens den 1850er Jahren angewendet wird .
Gustave Le Gray machte mehrere Belichtungen bei unterschiedlichen Belichtungswerten, um Seestücke zu erstellen, die den hellen Himmel von einem Glasplattennegativ und das dunklere Meer und Ufer von einem anderen verwendeten.
Das Zonensystem bei der Aufnahme und Entwicklung und Tone Mapping durchgeführt in der Dunkelkammer in der Mitte der 20. Jahrhundert wurde in eine Kunstform von Ansel Adams und anderen angehoben wie früher mal der Entwicklung und Ausweiche und Brennen des Drucks des Gesamtdynamikbereich eines senken Szene zu dem, was die verwendeten Fotopapiere anzeigen konnten.
Im Bereich der digitalen Fotografie gibt es mehrere Techniken, mit denen eine Szene mit einem hohen Dynamikbereich unter Verwendung eines Mediums wie eines Computermonitors oder eines Drucks dargestellt werden kann, das keinen so großen Kontrast zwischen den hellsten und dunkelsten Teilen einer Szene bietet wie die Szene selbst enthält. Was viele Leute meinen, wenn sie HDR sagen, ist nur eine solche Technik unter vielen.
Obwohl weit davon entfernt, das einzig legitime zu sein, das heute am weitesten verbreitete Verständnis des Begriffs HDRDies ist das Ergebnis von Ideen, die erstmals 1993 eingeführt wurden und zu einer mathematischen Theorie unterschiedlich belichteter Bilder desselben Themas führten, die 1995 von Steve Mann und Rosalind Picard veröffentlicht wurde. Es erstellt eine Lichtkarte mit hohem Dynamikbereich aus mehreren digitalen Bildern, die mit unterschiedlichen Werten belichtet werden, wobei nur globale Bildoperationen (über das gesamte Bild) verwendet werden. Das Ergebnis ist häufig ein 32-Bit-Gleitkomma-Bild, das kein Monitor oder Drucker rendern kann. Anschließend muss der Ton durch Reduzieren des Gesamtkontrasts unter Beibehaltung des lokalen Kontrasts zugeordnet werden, damit er in den Dynamikbereich des Anzeigemediums passt. Dies führt häufig zu Artefakten in den Übergängen zwischen Bereichen mit hohen Luminanzwerten und Bereichen mit niedrigen Luminanzwerten. (Selbst wenn Sie eine 12-Bit- oder 14-Bit-Rohdatei in Ihrer Fotoanwendung auf dem Computer öffnen, wird auf dem Bildschirm ein 8-Bit-Rendering der demosaikierten Rohdatei angezeigt, nicht die tatsächlich monochromatische Bayer-gefilterte 14 -bit Datei. Wenn Sie die Einstellungen und Schieberegler ändern, werden die Rohdaten neu zugeordnet und in 8 Bit pro Farbkanal erneut gerendert.
Als die von Mann und Picard beschriebenen Techniken zum ersten Mal in gängigen Bildgebungsanwendungen auf Verbraucherebene angewendet wurden, erforderten diese Anwendungen normalerweise, dass die verwendeten Bilder im JPEG-Format vorliegen. Wenig später, wenn Sie wirklich exotisch werden möchten, finden Sie möglicherweise ein Programm, mit dem Sie TIFFs verwenden können. Oft nahmen Benutzer eine einzelne Rohdatei, erstellten eine Reihe von JPEGs aus der einzelnen Datei mit etwa -2, 0, +2 Belichtungs- / Helligkeitsunterschieden und kombinierten sie dann mit dem HDR-Programm. Sogar eine 12-Bit-Rohdatei kann so viel Dynamikbereich enthalten wie eine JPEG-Reihe von -2, 0, +2. Eine 14-Bit-Rohdatei kann die entsprechenden Informationen enthalten wie eine JPEG-Serie mit -3, 0, +3. Erst vor relativ kurzer Zeit haben die meisten HDR-Anwendungen, die auf der Erstellung von Gleitkomma-Lightmaps basieren, die Verwendung von Rohdateidaten als Ausgangspunkt zugelassen.
Bei der weitesten Verwendung der Begriffe HDR (oder HDRI ) sind auch andere Prozesse enthalten, die keine 32-Bit-Luminanzkarten und die Notwendigkeit der Tonabbildung beinhalten. Die Kombination verschiedener Bereiche unterschiedlicher Belichtungen derselben Szene, sei es durch physisches Ausschneiden und Einfügen wie vor über 150 Jahren bei Le Gray oder über moderne digitale Bildgebungsanwendungen, bei denen Ebenen verwendet werden, ist eine Möglichkeit. Andere Techniken wie Exposure Fusion oder Digital BlendingFühren Sie globale Anpassungen digital auf eine Weise durch, die nicht die gleiche Art der Tonzuordnung erfordert wie eine 32-Bit-Gleitkomma-Lichtkarte. Wie bereits erwähnt, waren viele der Techniken, die im 20. Jahrhundert in der Dunkelkammer zur Herstellung von Drucken aus belichteten Filmen verwendet wurden, ein Mittel zur Anzeige von Szenen mit einem sehr großen Dynamikbereich unter Verwendung von Fotopapier, das einen niedrigeren Dynamikbereich als der Negativfilm aufweisen konnte wird verwendet, um die Szene zu erfassen. Gleiches gilt für diese vielfältigen digitalen Techniken.
Sogar das Konvertieren einer 14-Bit-Rohdatei, bei der die Daten für jedes Pixel nur einen Luminanzwert, aber keine echten Farben haben, und das Verwenden von Demosaikierungsalgorithmen zum Interpolieren eines 8-Bit-Rot-, Grün- und Blau-Farbwerts pro Farbkanal für jedes Pixel basierend Die unterschiedlichen Luminanzwerte benachbarter Pixel, die mit einer Bayer-Maske mit abwechselnden Mustern von Rot, Grün und Blau gefiltert werden , können als HDRI betrachtet werden , insbesondere wenn unregelmäßig geformte Tonkurven auf die resultierenden RGB-Werte angewendet werden.