Was bringt es, 14-Bit-Bilder aufzunehmen und auf 8-Bit-Monitoren zu bearbeiten?

37

Ich bin etwas verwirrt. Wenn meine DSLR während der RAW-Aufnahme ein 14-Bit-Bild aufzeichnet. Benötige ich nicht auch einen 14-Bit-Monitor, um die Aufnahme in RAW optimal nutzen zu können? Was ist der Punkt, ein Bild in 14-Bit zu erfassen und es zu öffnen und zu bearbeiten, nur 8-Bit-Tiefen-Monitor?

user1187405
quelle
1
Es sind mindestens 10 Bit RAW erforderlich, um die für sRGB erforderliche Gammakurve anzuwenden, da die Erfassung linear ist.
Mark Ransom

Antworten:

52

Sie können Ihre Fotos mit einem alten, gebrannten CRT-Schwarzweiß-Monitor bearbeiten, und es ist immer noch dasselbe: Die zusätzlichen Bits zählen.

Hier ist eine Simulation eines 14-Bit-Histogramms (A) und eines 8-Bit-Histogramms (B). Beide befinden sich über einem blauen Gitter, das eine 8-Bit-Anzeige oder ein 8-Bit-Dateiformat simuliert.

In B stimmen alle Zeilen überein. (8-Bit-Format ist gut genug, weil es genau das ist, was unsere Augen in verschiedenen Graustufen wahrnehmen können.)


Jetzt. Stellen Sie sich vor, Sie müssen Ihr Histogramm verschieben, um ein helleres, fröhliches Bild zu erhalten.

Die verschiedenen Ebenen auf der linken Seite schieben Sie nach rechts.

In Ihrer Rohdatei gibt es genügend "Unterebenen", um die gleichen blauen Linien zu füllen. (C).

Die Daten auf dem 8-Bit-Bild beginnen jedoch, "Lücken" (rote Zone) zu bilden. Dies führt zu Streifenbildungsproblemen, erhöhtem Rauschen usw.

Bildbeschreibung hier eingeben

Der wichtige Unterschied besteht also darin, dass Sie Ihr Bild manipulieren oder steuern und über zusätzliche Daten verfügen. Das gibt dir Freiheit.

Rafael
quelle
10
+1 schönes Beispiel, aber man sollte es nicht wörtlich nehmen - in Wirklichkeit sind die 14-Bit-Rohdaten linear, während die 8-Bit-Ausgabe nicht (wegen Gamma) ist. Trotzdem eine gute Möglichkeit zu visualisieren, was die Bildverarbeitung mit dem Histogramm anstellen kann!
Szulat
7
Ja, sehr wörtlich. Gamma ist tatsächlich das Hauptproblem, das 12 oder 14 Bit erfordert. Gamma ist im Wesentlichen die größte derartige Tonverschiebung, und in den frühen Tagen wurde sie in 8 Bits schlecht und unzureichend durchgeführt. Daher mussten sich die Image Creator-Geräte (Scanner und dann Kameras, die Gamma-Effekte haben) auf 10 Bit, dann 12 Bit und jetzt 14 Bit verbessern - all die Bits, für die wir uns Hardware leisten können, zumindest bis vor kurzem. Es stimmt natürlich, dass unser Auge niemals Gammadaten sieht (außer im Histogramm-Diagramm). Fortsetzung ..
WayneF
3
@WayneF Dies ist ein weit verbreitetes Missverständnis. Gamma ist jetzt im digitalen Zeitalter genauso vorteilhaft wie zu Zeiten der analogen CRT. das display muss die gleichen ebenen wie das original haben, stimmt! aber unsere Wahrnehmung ist nichtlinear. Deshalb können Sie die Helligkeit mit Gamma als 8-Bit kodieren und erhalten ein Ergebnis, das dem linearen Kodieren mit 11-12 Bit ähnelt. Mehr Bits bedeuten mehr Speicher, mehr Bandbreite und mehr Energieverschwendung ohne sichtbare Auswirkungen. Deshalb ist Gamma hier, um zu sagen. siehe auch die beispielverläufe hier: cambridgeincolour.com/tutorials/gamma-correction.htm
szulat 22.12.15
2
Richtig. Gamma hat immer noch einen Platz in der digitalen Bildgebung und im Video, da es Codewerte gut nutzt. Am unteren Ende des Helligkeitsbereichs entspricht 8-Bit mit Gamma 10-Bit linear (da die Gamma-Steigung dort nahe 4 liegt). In Film-Workflows sind Log-Codierungen häufiger als Gamma-Codierungen, jedoch aus genau demselben Grund: Einsparung von Codewerten.
Dithermaster
3
Kurzversion: Die Bearbeitung eines digitalen Fotos erfolgt mathematisch und die Bittiefe Ihres Bildschirms ist unabhängig von der Bittiefe des Bildschirms (es sei denn, Sie verwenden eine Bildbearbeitungssoftware für den Papierkorb). Bearbeitungen werden mit der vollen Bittiefe berechnet und profitieren daher von der zusätzlichen Genauigkeit.
voraussichtlich
41

Höhere Bittiefen bieten Ihnen mehr Bearbeitungsmöglichkeiten, ohne Daten zu verlieren.

Machen Sie nicht den Fehler, die Darstellung eines Bildes mit der Darstellung zu verknüpfen . Die Bearbeitung liefert die besten Ergebnisse, wenn Sie die Darstellung bearbeiten, bei der die zugrunde liegenden Daten die höchste Auflösung haben. Es ist nur so, dass Ihr Monitor eine Ansicht mit geringerer Auflösung des Bildes bietet , dies ist jedoch nicht an die Qualität der zugrunde liegenden Darstellung gebunden.

Wenn Sie sich an Schulmathematik erinnern, gab es immer eine Faustregel: Runden Sie niemals Zwischenberechnungen, wenn Sie Ergebnisse berechnen; Führen Sie die Mathematik immer am Ende durch, wenn Sie die Ergebnisse präsentieren. Die genaue gleiche gilt auch hier. Ihr Monitor ist das Ende, an dem die "Abrundung" stattfindet, wenn Sie ihn Ihnen präsentieren. Ihr Drucker "rundet" möglicherweise anders. In allen Zwischenschritten verwenden Sie jedoch die Rohdaten, um die genauesten Ergebnisse zu erzielen, und speichern die hochauflösende Originaldarstellung auf der Festplatte, sodass Sie diese Informationen beibehalten und später die genaue Bearbeitung fortsetzen können.

Beachten Sie Folgendes: Angenommen, Sie haben ein 5760 x 3840-Quellbild. Sie erhalten die größte Flexibilität beim Bearbeiten und Rendern, indem Sie das Bild in dieser Größe bearbeiten und diese Größe beibehalten. Wenn Sie es zufällig auf einem 1440 x 900-Monitor anzeigen, den Sie einfach in Ihrem Editor verkleinern, würden Sie wahrscheinlich die Größe der Daten nicht ändern und die Daten neu berechnen, damit sie passen. Das gleiche gilt für die Farbauflösung.

Audio ist ähnlich. Möglicherweise verfügt die Soundkarte Ihres Computers nur über 12-Bit-Ausgabefunktionen. Wenn Sie jedoch 16-Bit- oder 24-Bit-Audio aufnehmen, speichern und bearbeiten, können Sie ein Signal mit geringer Lautstärke 16-fach bzw. 4096-fach lauter machen und dennoch auf diesem Computer einen minimalen Verlust an Ausgabequalität erzielen. Konvertieren Sie erst am Ende nach unten, wenn Sie das Endergebnis präsentieren möchten. Das visuelle Äquivalent hellt ein extrem dunkles Bild mit minimaler Streifenbildung auf.

Unabhängig davon, wie leistungsfähig Ihr Monitor ist, wenn Sie einen Bearbeitungsvorgang ausführen, z. B. die Helligkeit mit 2 multiplizieren, möchten Sie dies für die hochauflösende Originaldarstellung des Bildes tun.


Hier ist ein simuliertes Beispiel. Nehmen wir an, Sie haben ein wirklich dunkles Bild aufgenommen. Dieses dunkle Bild befindet sich in der oberen Zeile mit simulierten internen Speicherformaten für 4, 8 und 14 Bit pro Kanal. Die untere Reihe ist das Ergebnis der Aufhellung jedes Bildes. Helligkeit war multiplikativ, Skalierungsfaktor 12x:

Bildbeschreibung hier eingeben ( Quelle , fotografiert von Andrea Canestrari)

Beachten Sie den permanenten Informationsverlust. Die 4-Bit-Version ist nur ein anschauliches Beispiel für ein Extrem. In der 8-Bit-Version sind Streifen besonders am Himmel zu sehen (klicken Sie auf das Bild, um es zu vergrößern). Das Wichtigste dabei ist, dass die 14-Bit-Version mit der höchsten Qualität skaliert ist, unabhängig davon, dass die endgültige Ausgabeform das 8-Bit-PNG war, als das ich es gespeichert habe, und davon, dass Sie dies wahrscheinlich anzeigen eine 8-oder-weniger-Bit-Anzeige .

Jason C
quelle
1
Oder sogar ein 6-Bit-Display. Nicht alle LCD-Monitore zeigen tatsächlich eine volle 8-Bit-Tiefe pro Kanal an.
Random832
@ Random832 gibt es einen zuverlässigen Test, um zu wissen, wozu Ihr LCD fähig ist? Ich habe ein computergeneriertes Verlaufsbild, das Streifen zeigt, aber ich war mir nie sicher, ob dies daran lag, dass meine Augen Unterschiede in einer Ebene erkennen konnten oder ob mein Monitor diese verzerrte.
Mark Ransom
@Mark Schauen Sie sich diese nette Beschreibung zum Thema an: avsforum.com/forum/… - es kann schwierig sein, da es viele Stellen für Engpässe in der Signalkette gibt, von Ihrem Videoausgang bis zum Licht, das aus dem Bildschirm kommt , viele Fehlinformationen in Spezifikationen (z. B. angepriesene Tiefen als BS aufgrund eines 6-Bit-Decoders auf einer zufälligen Leiterplatte) und Edid-Deskriptoren usw. Es ist ein komplexes System und die Kenntnis der tatsächlichen Tiefe ist daher kein häufiger Anwendungsfall , Viel Glück! Ymmv
Jason C
1
@MarkRansom Was mir klar wurde, war, dass ich jede vierte Ebene Streifen an klar definierten Grenzen sehen konnte. Einige Displays machen Dithering, was etwas schwieriger zu identifizieren sein kann
Random832
^ Beachten Sie auch, dass einige Bildschirme eher temporär als räumlich zittern, was bei richtiger Ausführung wahrscheinlich kaum zu bemerken ist. Sie können es jedoch möglicherweise in dunklen Bereichen erkennen, wenn Sie scharfe Augen haben.
Jason C
4

14bit Raw korreliert nicht mit der Bittiefe Ihres Monitors. Raw ist ein Format, das nur minimal verarbeitet wird. Siehe Rohbildformat .

Mit dem Raw-Format können Nachbearbeitungssoftware wie Lightroom und Photoshop feine Anpassungen an Bildern vornehmen, die mit JPEG-Dateien nicht möglich wären.

Was den Monitor anbelangt, so sind Wide-Gamut-Monitore in der Regel 10-Bit-Monitore und verfügen über eine interne LUT, in der Kalibrierungsinformationen von Kalibratoren wie X-Rite oder Spyder gespeichert werden. Ihre Grafikkarte muss ebenfalls 10 Bit unterstützen.

Bei Nvidia-Chips unterstützen Karten der Workstation-Klasse 10-Bit. Die meisten, wenn nicht alle Karten der Gaming-Klasse, entsprechen meiner Erfahrung nicht. Ähnlich verhält es sich mit AMD-Chipsätzen.

Wenn Sie Ihre Bilder nicht nachbearbeiten möchten, können Sie problemlos zu JPEG wechseln.

Gmck
quelle
es ist erwähnenswert, dass in fast allen Fällen das menschliche Auge mehr als 8 Bit sowieso nicht sehen werden, mit Ausnahme von seltenen glatten Steigungen (meist synthetisch, wie natürliche laut Fotos gegenüber , wo die posterization im Rauschen versteckt)
szulat
8 Bit sind eigentlich nur 256 Schattierungen und nicht genug, um glatte Verläufe ohne Dithering anzuzeigen.
Gmck
2
stimmt, aber solche Farbverläufe sind auf den Fotos des realen Lebens aufgrund von Rauschen fast nie zu sehen
am
1
@ Gmck: Es gibt einen großen Unterschied zwischen 0,39% Helligkeit und 0,78% Helligkeit. Eine 256-stufige logarithmische Kurve würde für glatte Verläufe ausreichen, aber viele Filtereffekte erfordern im Wesentlichen eine lineare Abbildung der Werte auf die Helligkeit. Wenn Sie also zwei Pixelwerte durch ihren Durchschnitt ersetzen, bleibt die Gesamthelligkeit davon unberührt.
Supercat
1

Sie sollten diese Frage vielleicht zuerst lesen.

Wie ist der Dynamikumfang des menschlichen Auges im Vergleich zu Digitalkameras?

Grundsätzlich beträgt der Dynamikumfang von Papier weniger als 8 Bit, und der Dynamikumfang des Menschen ist nicht unähnlich.

Der Vorteil des hohen Dynamikbereichs in RAW-Bildern besteht darin, dass Sie sie nachbearbeiten können, um die Bits, an denen Sie interessiert sind, in den Bereich zu bringen, den das Anzeigegerät darstellen kann - was sich wiederum auf das bezieht, was das menschliche Auge sehen kann.

Das klassische Beispiel ist also ein Innenraum mit Sonnenlicht im Freien. Wenn das menschliche Auge vom Blick nach innen nach außen wechselt, zieht sich die Iris zusammen, um die Menge des einfallenden Lichts zu verringern, sodass Sie sowohl äußere als auch innere Details sehen können.

Eine Kamera macht das nicht, also müsste man normalerweise entweder für das Innere des Raumes (und um Schlaglichter zu bekommen) oder für das Äußere (um ein unterbelichtetes Inneres zu bekommen) belichten - oder zwei Aufnahmen machen und ein HDR-Komposit machen.

Mit dem höheren Dynamikbereich von Raw können Sie eine einzelne Aufnahme machen und bestimmte Bereiche selektiv „schieben“ oder „ziehen“, um Details in diesen über- / unterbelichteten Bereichen sichtbar zu machen.

Die Bilder hier zeigen ein solches Szenario. https://www.camerastuffreview.com/camera-guide/review-dynamic-range-of-60-camera-s

Roddy
quelle
3
...is that you can post-process them to bring the bits you're interested in within the rnage that the human eye can see. Genauer gesagt, quetschen Sie die gewünschten Bits in den Bereich, den der Monitor anzeigen kann . Das menschliche Auge hat einen noch dynamischeren Bereich als ein 14-Bit-RAW-Bild. Es geht nicht darum, was das Auge sehen kann, sondern darum, den gesamten Dynamikbereich zu erfassen, damit er später in den Dynamikbereich der Anzeige eines Standard-Videogeräts komprimiert werden kann.
J ...
2
Nein, der dynamische Anzeigebereich ist das, was er ist, weil es technisch schwierig und teuer ist, ihn zu verbessern. Ein 14-Bit-Display wäre erstaunlich. Ein größerer dynamischer Bereich bedeutet einen größeren Farbraum - lebendigere, farbenfrohere und genauere Bilder. Mein primäres Display ist beispielsweise intern ein 12-Bit-Panel (wenn auch über ein Lookup-Panel) und kann 99% des AdobeRGB-Farbumfangs erzeugen. Der Unterschied zwischen diesem und einem normalen 8-Bit-sRGB-Panel (mit normalerweise ungefähr 6-Bit-Effekt) ist unglaublich. Mehr Dynamik ist immer besser.
J ...
1
Dynamikbereich ist in den Farbraum und sRGB - Abdeckung, die Kalibrierung und „Bits“ sind hier für Präzision nicht verwandten, nicht mehr bunte Bilder für die Anzeige
szulat
1
@J ... en.wikipedia.org/wiki/Adaptation_(eye) "In jedem Moment kann das Auge nur ein Kontrastverhältnis von eintausend wahrnehmen ." = 10 Bits.
Roddy
1
@Roddy Ja, aber die Gleichung enthält mehr als nur absolute Helligkeit und Dunkelheit. Wie oben geht es auch um die Farbauflösung.
J ...
-3

Die 'Wikisperts' vergessen, dass Sie, egal in welcher Bittiefe Sie arbeiten, das Ergebnis NUR in 8 Bit sehen. Stecken Sie eine 3-Bit-Datei (8 Ebenen) in Ihr 8-Bit-System, und auf dem Display werden 8 Ebenen (256/7 = 0 bis 7) 0 bis 255 in Schritten von 36 angezeigt. Bei 4 Bit werden 16 (0 bis 15) angezeigt. Wenn Sie eine 10-, 12- oder 14-Bit-Datei einfügen, werden 256 Ebenen angezeigt. Ihre Grafikkarte konvertiert die Stufen 1024, 4096 oder 16.384 auf 256. Aus diesem Grund wird die geladene RAW-Datei, sobald sie Ihrem Videoprozessor angeboten wird, 8-Bit-Stufen (256) aufweisen. Ich habe in der Medizinphysik gearbeitet, die meisten Bildgebungsabteilungen haben jetzt eine 12-Bit-Bildgebung für das Brust-Screening und dergleichen. Das menschliche Auge kann jedoch nicht besser als 900 ish-Werte erkennen. Daher wird Software verwendet, um kleinste Änderungen der Gewebedichte zu erkennen. Wenn Sie also jemanden treffen, der ein 10-, 14- oder 14-Bit-System hat, Sie werden hoch verschuldet und mega enttäuscht sein. Übrigens bemühen wir uns auch, Farbveränderungen zu erkennen. Unser Sehvermögen schwankt unter 16 Millionen Farben, es sei denn, es treten geringfügige Änderungen in einem ähnlichen Farbton auf, bei denen Streifenbildung auftritt. Unsere Kameras sind in der Lage, 4 Billionen Farben zu erzeugen, aber wie viele andere Dinge können theoretisch und tatsächlich zwei sehr unterschiedliche Tiere sein.

Bob_S
quelle
1
Was Sie mit einem 8-Bit-Monitor sehen, haben Sie nicht in Ihrer 14-Bit-Datei, na und? Wie in der vorherigen Antwort angegeben, scheinen mehr Informationen immer besser zu sein ...
Olivier
Ich werde es einfach halten. Nehmen Sie Ihre Bilder in Rohform auf. Produzieren Sie Ihre JPGs aus Ihrer Rohdatei. Um den Vorteil zu sehen, vergleichen Sie Ihr JPG mit den von der Kamera erzeugten. Es ist der Unterschied zwischen einer Profi-Linse und einer Mülllinse.
Bob_S
Können Sie Ihre Argumentation zum Objektiv erklären? Für mich hat das nichts mit dieser Diskussion zu tun: 12 Bit Dynamikumfang zu haben und zu wählen, was Sie nach der Nachbearbeitung behalten möchten, hat absolut nichts mit der Linsenqualität zu tun. Und ja, auf einem 8-Bit-Bildschirm sehen Sie 12 Bit Dynamikumfang. Spielen Sie einfach mit EV-Korrekturen!
Olivier
Nein, du kannst nicht. Ihre 8-Bit-Anzeige zeigt n / 256- oder 256 / n-Pegel an, je nachdem, ob Sie eine kleinere oder größere Datei als 8 Bit anbieten. Wir können den Punkt, an dem diese Bits ausgewählt werden, durch Einstellungen in PS einstellen, aber wir haben KEINE KONTROLLE darüber, welche Bits angezeigt werden, dh die Lücke zwischen den Bits ist gleich, so dass Daten fehlen !. Wenn wir das hätten, würden wir (der NHS für einen) nicht die Mühe machen, 46.000 Pfund für 12-Bit-Imaging-Geräte auszugeben, die nicht besser als 8-Bit-Bilder liefern.
Bob_S
Ich frage mich, was Sie nicht verstehen, wenn Sie in der Lage sind, einen Dynamikbereich zu nutzen, der über dem sichtbaren liegt, um ein Bild zu erstellen. Wenn Sie eine Datei mit einem dynamischen 12-Bit-Bereich haben, können Sie jeden gewünschten 8-Bit-Bereich anzeigen. So einfach ist das. Wenn Sie ein Fotograf wären, würden Sie feststellen, wie wichtig dies ist: Details im Licht und im Schatten zu haben, ist der Traum eines jeden. Ich werde nicht weiter auf das Thema eingehen, bitte lies die vorherigen Antworten.
Olivier