Wie viele Datenbits werden normalerweise tatsächlich von einem Digitalkamerasensor erfasst?

11

In einem Kommentar zu dieser Frage schlug jemand vor, dass Kamerasensoren normalerweise nur 12 bis 14 Datenbits ausgeben. Ich war überrascht, weil dies bedeuten würde, dass 24 Bit Farbe nur für die Fotomanipulation nützlich sind (wobei die hinzugefügten Bits das Rauschen reduzieren, das durch das wiederholte Interpolieren von Mittelwerten bei mehreren Manipulationen entsteht).

Weiß jemand genug über Kamerasensoren, um die 12-14-Bit-Behauptung autoritativ beantworten zu können? Wenn ja, was sind typische Codierungen?

John Robertson
quelle
Ich entschuldige mich bei Itai und Guffa, da ich alle drei Antworten für sehr interessant hielt, und danke für die Kommentare nach Guffas Antwort mattdm und Matt Grum. Ich wünschte, ich hätte alle auswählen können.
John Robertson

Antworten:

12

Die Fotoseiten eines digitalen Sensors sind eigentlich analoge Geräte. Sie haben überhaupt keine Tiefe. Um jedoch ein digitales Bild zu erzeugen, tastet ein Analog-Digital-Wandler (A / D-Wandler) das analoge Signal mit einer gegebenen Bittiefe ab. Dies wird normalerweise in den technischen Daten einer Kamera angegeben. Beispielsweise verfügt die Nikon D300 über einen 14-Bit-A / D-Wandler .

Beachten Sie jedoch, dass dies pro Kanal erfolgt , während 24-Bit-Farbe normalerweise 8 Bit pro Kanal bedeutet. Einige Dateiformate - und Arbeitsbereiche - verwenden stattdessen 16 Bit pro Kanal (für insgesamt 48 Bit), andere sogar noch mehr.

Dies liegt zum Teil daran, dass die zusätzliche Präzision akkumulierte Rundungsfehler reduzieren kann (wie Sie in Ihrer Frage bemerken), aber auch daran, dass das menschliche Sehen nicht linear ist und die von uns verwendeten Farbräume daher auch nicht linear sind. Das Umschalten von einer linearen auf eine "gammakomprimierte" Kurve ist eine verlustbehaftete Operation (siehe eine der verschiedenen Fragen zu ). Mehr Bits bedeuten also einfach weniger Verlust. Dies ist besser, wenn Sie Ihre Meinung zu Belichtung / Kurven ändern und nicht Ich habe keinen Zugriff mehr auf die RAW-Datei.

Bitte lesen Sie mein Profil
quelle
7

Die meisten Sensorchips zeichnen nur eine Farbkomponente pro Pixel auf, sodass ein Pixel beispielsweise 14 Datenbits für die Grünintensität enthalten kann.

Die Pixel sind in einem Raster angeordnet, in dem 50% der Pixel grüne Daten, 25% rote und 25% blaue Daten aufzeichnen:

RGRGRGRGRGRGRGR
GBGBGBGBGBGBGBG
RGRGRGRGRGRGRGR
GBGBGBGBGBGBGBG
RGRGRGRGRGRGRGR

Wenn diese Daten in RGB konvertiert werden, werden zwei Farbkomponenten pro Pixel aus den Informationen in den umgebenden Pixeln interpoliert. Ein Pixel, das grüne Informationen enthält, hat beispielsweise zwei benachbarte Pixel, die rote Daten und zwei blaue Daten enthalten, die zum Erzeugen des RGB-Werts verwendet werden.

14 Bit pro Pixel RAW-Daten erzeugen also 42 Bit pro Pixel RGB-Daten. Natürlich sind die interpolierten Daten weniger genau, aber normalerweise verarbeiten Sie sie trotzdem bis zu 24-Bit-RGB.

Guffa
quelle
42 Bit oder 56 (2 × G)?
Bitte lesen Sie mein Profil
1
Jedes RGB-Pixel wird aus einem gewichteten Durchschnitt von möglicherweise vielen Pixeln erstellt, sodass Sie nicht einfach mit 3 (oder 4) multiplizieren können, um zu bestimmen, wie viele Bits an Farbdaten Sie erhalten. Wenn Sie über Farbinformationen sprechen möchten, erhalten Sie experimentell etwa 22 Bit mit einer typischen DSLR
Matt Grum
1
@ Matt Grum: Ja. Die einfache Zahl gibt an , wie viele Bits von Daten Sie haben, aber Sie mit weit weniger tatsächlich am Ende Informationen .
Bitte lesen Sie mein Profil
4

Achten Sie darauf, die Bittiefe pro Pixel und die Bittiefe pro Komponente nicht zu verwechseln.

Die Ausgabe digitaler Sensoren liegt fast immer linear zwischen 10 und 14 Bit pro Komponente . Das würde zwischen 30-Bit-Farbe (1 Milliarde) und 42-Bit (4 Billionen) pro Pixel ergeben.

Die Site DXOMark misst dies anhand einer normalisierten Skala (in ihrem Whitepaper erläutert) und veröffentlicht die Bittiefe pro Pixel, die das Rauschen berücksichtigt, das dazu neigt, die Bits niedrigerer Ordnung zu zerstören. Basierend auf ihren Erkenntnissen im Vollbildmodus können DSLRs 24,7 Bit pro Pixel erreichen, während Mittelformatkameras 26 Bit erreichen. Bei Cropped-Sensor-Kameras ist das aktuelle Maximum 23,8 Bit.

Itai
quelle
0

Aktuelle DSLR-Kameras bieten eine 14-Bit-Ausgabe. Einige Mittelformatkameras beanspruchen eine 16-Bit-Ausgabe, aber verschiedene Leute ( wie die dpBestflow-Site des ASMP) haben argumentiert, dass die Zunahme der Bittiefe zwischen 14 Bit und 16 Bit tatsächlich ein besseres Bild erzeugt.

Ahockley
quelle