Ist 14-Bit-RAW besser als 12-Bit-RAW?

13

Ein normales JPEG-Bild hat nur 8 Bits, um Informationen über den Ton jedes Pixels zu speichern. Wenn Sie das Bild im RAW-Format (z. B. DNG) speichern, können Sie den Farbton mit mehr Bits pro Pixel speichern, wodurch wir einen größeren Bereich und mehr Optionen für die Verarbeitung auf dem Computer erhalten.

Meine aktuelle Kamera kann Bilder als 12-Bit-DNG aufzeichnen, und ich verwende normalerweise RAW. Mir ist aufgefallen, dass neuere DSLR-Modelle 14 Bit pro Pixel speichern können. Für mich scheint es ein großer Vorteil zu sein, diese zwei weiteren Bits zu bekommen, aber in Wirklichkeit ist es ein großer Unterschied? Würde ich den Unterschied in der Nachbearbeitung sehen? Wäre der Unterschied mehr bei dunklen (unterbelichteten) oder hellen (überbelichteten) Teilen des Bildes?

Tomasz Błachowicz
quelle
8
Kleine, aber wichtige Korrektur: JPEGs speichern 8 Bit pro Kanal und Pixel: 8 Bit Rot, 8 Bit Grün, 8 Bit Blau, insgesamt 24 Bit. Ebenso speichert RAW 12/14 Bit pro Kanal und Pixel: insgesamt 36/42 Bit pro Pixel. Mit dem GIF-Format (oder einem 8-Bit-PNG) erhalten Sie 8 Bit pro Pixel: eine maximale Palette von 256 Farben, die für Fotos nicht geeignet ist.
Mark Whitaker
3
+1 zur Korrektur, aber beachten Sie, dass die Rohdatei tatsächlich nur diese Anzahl von Bits pro Pixel speichert, wobei jedes Pixel - jede Fotoseite - auf eine bestimmte Farbe gefiltert wird. Die Konvertierung von RAW-Dateien erfordert eine Demosaikierung, bei der Vollfarbinformationen von den Nachbarn geschickt extrapoliert werden. RAW speichert also nicht wirklich 36/42 Bit pro Pixel. (Vorausgesetzt, es handelt sich um ein Standard-Bayer-Array oder ein ähnliches Farbfilter-Array, wie es für alle Kameras außer Sigmas Foveon-Kameras üblich ist.)
Bitte lesen Sie das Profil vom
@MarkWhitaker - weitere Korrektur (noch kleiner ;-): RAW (in den meisten Kameras) speichert 12/14 Bit pro Pixel einer der 3 Primärfarben. Die anderen beiden Farben werden bei der Nachbearbeitung durch Bayer-Demosaikieren (oder ein anderes Muster) hinzugefügt. Eine Ausnahme bilden Sensoren vom Typ Foveon, bei denen 3 Farben pro Pixel vom Sensor erfasst werden.
ysap
Die meisten JPEG-Bilder speichern das Bild im YCC- Format ( en.wikipedia.org/wiki/YCbCr ). Die Anzahl der Bits für jeden Kanal (Luminanz, Delta-Blau, Delta-Rot) wird bestimmt, wenn das Bild komprimiert wird. Das Rendern des Bildes erfolgt normalerweise mit RGB888, was zu einem kleinen zusätzlichen Informationsverlust (mehr als der Komprimierung) führt. Es gibt auch CMYK- und YCCK-JPEGs, obwohl sie seltener sind, und es gibt '12-Bit'-JPEGs, die in RGB [12] [12] [12] anstatt in RGB [8] [8] [8]
rsaxvc

Antworten:

14

Es macht einen messbaren Unterschied , erzählt aber nicht die ganze Geschichte. Die Porträtbewertung von DxOMark ist eine technische Bewertung der Ausgabe verschiedener Kameras, insbesondere in Bezug auf die Farbtiefe, die sie sorgfältig als " Korrelation " mit der Farbempfindlichkeit beschreiben, bei der es sich um die tatsächliche Farbnuance handelt.

Wenn Sie sich die Ergebnisse dieser Metrik ansehen, sehen Sie, dass die am besten bewerteten Kameras 16 Bit pro Pixel haben, gefolgt von denen mit 14 Bit pro Pixel. Die teuren Mittelformat-Digitalrückteile erzielen DxOMark-Werte von etwa 24 bis 26, gefolgt von den besten Spiegelreflexkameras mit einem Bereich von 23 bis 25. Dann kommen die Kameras mit 12-Bit / Pixel als nächstes - ich denke, die oberste ist 22-Punkt-etwas.

Beachten Sie jedoch, dass DxOMark einen Unterschied von 1 in dieser Punktzahl als "kaum wahrnehmbar" bezeichnet. Das ist, wenn Sie kaum sehr genau bemerken . Bei den meisten Menschen sind weitaus größere Unterschiede in der Punktzahl auch bei den Ergebnissen in der Praxis nicht erkennbar.

Auswirkungen auf die reale Welt und die endgültige Wahrnehmung sind ein Grund, warum dies keine große Sache ist. Aber es gibt noch mehr! Wenn Sie weiter unten in der Liste nachsehen, finden Sie ältere Kameras mit einer Tiefe von 14 Bit und niedrigeren Werten als neuere 12-Bit-Kameras. Diese Zahl allein sagt also noch nicht die ganze technische Geschichte aus. Neuere Sensor- und Verarbeitungstechnologien verbessern die tatsächlichen Ergebnisse auf andere Weise. Wenn Sie aktuelle Generationen vergleichen, ist mehr Tiefe besser, aber nehmen Sie nicht an, dass es alles ist.

Ob Sie dadurch mehr Platz im Schatten oder in den Lichtern haben: Es ist nicht wirklich so, dass die Bits an beiden Enden hinzugefügt werden - stattdessen gibt es nur mehr Abstufungen. Stellen Sie sich vor, eine Zeitung gibt Filmen ein bis vier Sterne, während eine andere eine Skala von 1 bis 10 verwendet. Eine "10" aus der zweiten Zeitung ist nicht unbedingt viel besser als eine 4-Sterne-Bewertung aus der ersten, aber die zusätzlichen "Bits" sorgen für mehr Nuancen. Das ist die gleiche Idee.

Diese Sensoren leiden nach wie vor unter einer starken Lichtabschneidung. Bei Digitalaufnahmen ist es daher am besten, diese zu belichten, damit sie erhalten bleiben und Details aus dem Schatten entfernt werden. dunkle Bereiche aufzuhellen, da es (theoretisch) mehr Nuancen zum Strecken gibt.

Eine wichtige Erkenntnis ist, dass die 12 oder 14 Bit vom Sensor entfernt sind, während JPEGs eine Gammakurve verwenden, die mit der menschlichen Wahrnehmung übereinstimmt. Das ist nicht nur eine Möglichkeit für JPEG, Daten zu komprimieren - es muss eine Kurve angewendet werden, damit das Bild richtig aussieht. Da diese Kurve die Bits "zerquetscht", ist dies ein Teil des Grundes dafür, dass es weniger Wahrnehmungsunterschiede gibt, als man erwarten könnte. (Aber diese linearen Daten in der ungekrümmten Form zu haben, ist Teil der Flexibilität von RAW: Es ist einfach, eine andere Kurve zu wählen.)

Mein allgemeiner Punkt ist jedoch, dass ich nicht auf die zugrunde liegende Zahl schauen würde, um eine Entscheidung zwischen zwei Kameras zu treffen. Schauen Sie sich stattdessen die Endergebnisse an.


Ein weiterer externer Verweis, der denselben Standpunkt vertritt, aus dem Abschnitt über Sensoren auf der Website der American Society of Media Photographers "Best Practices and Workflow für digitale Fotografie" :

Zum Zeitpunkt des Schreibens dieses Artikels [ nb 2009 oder früher ], keine 35 mm DSLR - Kameras , die 14-Bit - Capture - Fähigkeit deutlich eine Bildqualität Vorteil gegenüber 12-Bit - Capture zeigen haben .

Einige mittelformatige Sensorhersteller behaupten, bei der 16-Bit-Erfassung einen Vorteil zu haben. Wir haben jedoch noch nie eine Studie (außer der des Herstellers) gesehen, die zeigt, dass eine höhere Bittiefe zu einer höheren Bildqualität führt, die allein auf der 16-Bit-Erfassung basiert. Im Allgemeinen wäre der Unterschied zwischen 14-Bit- und 16-Bit-Erfassung (für Menschen) nur sichtbar, wenn eine stark steile Tonkurve auf das Bild angewendet würde (in der Größenordnung von 6-7 Blenden).

(Hervorhebung hinzugefügt. Dank einer früheren Antwort von Aaron Hockley für den Zeiger.)

Bitte Profil lesen
quelle
Gute Antwort! Ich denke, Sie möchten vielleicht die Art und Weise berücksichtigen, in der die Bits in Glanzlichter, Mitteltöne und Schatten aufgeteilt werden. Sie haben erwähnt, dass "es nicht so ist, dass Bits an beiden Enden hinzugefügt werden, sondern dass nur mehr Platz für Abstufungen vorhanden ist". Meines Erachtens werden die Ebenen so zugewiesen, dass die Lichter stärker werden, gefolgt von Mitteltönen, gefolgt von Schatten und Dunkelheiten. Das Erhöhen der Bittiefe von 12 (4096 Stufen) auf 14 (16384 Stufen) SOLLTE sich auf die Hervorhebungen auswirken ... und auf das Abrollen der Hervorhebungen, wenn sie ihren Höhepunkt erreichen. Sie haben zusätzlich 12.288 diskrete Luminanzstufen über 12-Bit.
jrista
Angenommen, eine binäre Verteilung der Pegel in den oberen Lichtern, Lichtern, Mitteltönen, Schattierungen und Schatten bei 12-Bit: 2048, 1024, 512, 256, 256. Für 14-Bit: 8192, 4096, 2048, 1024, 1024. ( Ein bisschen durchdacht, aber es zeigt den Punkt.) Dieser Unterschied sollte in Glanzlichtern sichtbar sein, insbesondere bei RAW (die meisten Rohwerkzeuge wenden beim Importieren eine Tonwertkurve an) und zu einem gleichmäßigeren, besser wiederherstellbaren Abfall führen, bevor Glanzlichter ausgeblasen werden.
jrista
1
@ jrista - stell den Gedanken auf den Kopf. Das Problem der geblasenen Glanzlichter ist ein unvermeidbarer Stillstand, der mit der vollen Kapazität der Fotoseiten zu tun hat. Höhere Bittiefe bedeutet nicht, dass die Bohrlöcher größer sind. Es ist so, dass die Brunnen feiner beprobt werden. Da die helleren bereits Daten hat mehr Bits, indem mehr Abtasten dort nicht so viel kaufen , wie das Hinzufügen von mehr zu den mehr-spärlich vertreten dunklen Bereichen der Fall ist.
Bitte Profil lesen
In Ihrem Beispiel ist der Wechsel von 2048 zu 8192 vierfach und von 256 zu 1024. Aber die oberste Ebene hatte bereits Tausende von Nuancen. Überlegen Sie noch weiter unten, wo man von 16 möglichen Stufen dunkler Farben auf 64 wechseln könnte - das ist eine viel bedeutendere Änderung als von 4096 auf 16384, obwohl die spätere deutlich höher ist.
Bitte Profil lesen
1
Ich weiß, dass die durchgebrannten Lichter ein schweres Problem sind, aber ich denke, wenn Sie mehr zu dämpfende Ebenen haben, ist es WENIGER ein Problem. Ich stimme Ihnen voll und ganz zu, dass die Notwendigkeit, sich Gedanken über das Zählen von Photonen zu machen, dadurch eingeschränkt wird, dass mehr Bits in den Schatten liegen.
jrista
12

Mehr Bits bedeuten normalerweise nicht mehr Reichweite, sondern mehr Präzision. Das heißt, die Enden der Skalen, die schwärzesten Schwarzen und die weißesten Weißen, bleiben dort, wo sie sind (bei 0 und dem Maximalwert), aber die Anzahl der Werte zwischen ihnen wird mit mehr Bits größer.

Hier kommt es schnell zu sinkenden Renditen, da einfach nicht so viel Präzision erforderlich ist und der Kamerasensor oft ohnehin nicht in der Lage ist, diese Präzision zu erreichen.

Fotografieunterricht
quelle
Ja. :) Dies ist eine nette, viel prägnantere Art, das Gleiche zu sagen wie meine Antwort. +1 und willkommen bei Stack Exchange!
Bitte Profil lesen
4

Ich denke, es gibt einige Verwirrung in Bezug auf die Unterschiede zwischen 12- und 14-Bit-RAW, wenn es um den Einfluss auf den Dynamikbereich geht.

Ich verstehe, dass die 14-Bit-RAW den Dynamikbereich nicht erweitert. Es erweitert weder die Lichter noch die Schatten. Sie erhalten schrittweise Informationen zwischen den dunkelsten und hellsten Details, die der Sensor erfassen kann (es ist, als würden Sie viermal mehr Graustufen erhalten). Ich bin mir ziemlich sicher, dass ich keinen Unterschied zwischen 12- oder 14-Bit-Rohbildern feststellen würde, die mit demselben Sensor aufgenommen wurden.

Schauen Sie sich zum Spaß diesen Color IQ-Test an . Ich bin mir ziemlich sicher, dass er weniger als 12-Bit-Gradualität aufweist.

kristof
quelle
1
Dieser Farbschärfetest ist großartig! Es hat mir (wieder) gezeigt, wie wichtig ein guter Monitor ist. Ich habe einen großartigen Dell U2410 an einen HP-Laptop mit einem durchschnittlich hellen Bildschirm angeschlossen (True Color oder was auch immer sie diese schreckliche Technologie nennen). Mein Browser ist auf dem Laptop-Desktop geöffnet und ich habe diesen Test zuerst auf diesem Monitor durchgeführt. Im Alter von 40 Jahren bekam ich eine Punktzahl von 12, was überhaupt nicht schlecht ist. Dann habe ich beschlossen, es erneut zu tun, diesmal auf dem Dell-Monitor. Meine Punktzahl mit einem guten Monitor ist jetzt ein Präfekt 0!
ysap
Auf jeden Fall ist es Teil der Definition eines Dynamikbereichs, wenn mehr mittlere Farbniveaus vorhanden sind. Grundsätzlich ist es das Verhältnis des Maximalwertes zur minimal messbaren Einheit.
ysap
... eine weitere Sache - Sie sehen diesen Farbtest auf Ihrem Monitor, der wahrscheinlich im besten Fall 10-Bit ist, wobei Ihr Browser höchstwahrscheinlich nicht in der Lage ist, mehr als 8 oder 10 Bit selbst zu rendern, also ja, der Test ist kleiner als 12-bit.
ysap
Ich bin mir nicht sicher, ob es mehr als tangential relevant für die Frage ist, aber dieser Test ist so interessant, dass er auf jeden Fall von mir +1 bekommt. :)
Bitte Profil lesen