Ist das Aufnehmen mit einer niedrigeren RAW-Auflösung mit einer Crop-Sensor-Kamera vergleichbar mit den Eigenschaften von Vollformatkameras?

12

Ich spreche nicht von Änderungen der Brennweite.

Ich habe viele Posts gelesen, in denen gesagt wird, dass die Pixeldichte bei Vollbildkameras im Vergleich zu Crop-Sensor-Kameras geringer ist und daher mehr Licht einfängt und somit eine bessere ISO-Leistung und einen größeren Dynamikbereich aufweist. Wenn ich mit einer Crop-Sensor-Kamera auf eine niedrigere Auflösung umschalte, entspricht dies einer besseren Pixeldichte und ahmt die Leistung eines Vollbilds (oder Mittelformats) nach, oder wird immer mit maximaler Auflösung aufgenommen und die Größe reduziert?

--EDIT: 1--
Ich habe eine Canon 60D und 3 Optionen für RAW-Bildgrößen (RAW, M-RAW und S-RAW). Wenn RAW nur ​​ein Dump von den Kamerasensoren ist, wie können sie 3 verschiedene Größen haben? Skaliert die Kamera auch RAW-Bilder?

Viv
quelle
2
Vivek - lesen Sie diese Frage: photo.stackexchange.com/q/3419/1024 . Laut @whuber (und dem Artikel, auf den er verweist) handelt es sich bei den kleineren RAWs in der Tat um eine Art Aggregation der einzelnen Sinne, wie Stan es in seiner Antwort beschreibt, nur dass dies in Soft statt in Hardware erfolgt.
ysap
(Die Seite, auf der ysap verlinkt, behandelt den mraw / sraw-Teil der Frage.)
Bitte lesen Sie das Profil vom
Ich werde das Dokument von ysap lesen und kommentieren.
Viv

Antworten:

7

Unter der Voraussetzung, dass Sie eine Canon haben, verwenden die unteren RAW-Modi mRAW und sRAW alle verfügbaren Sensorpixel, um ein reichhaltigeres Ergebnis zu erzielen, ohne dass eine Bayer-Interpolation erforderlich ist. Das tatsächliche Ausgabeformat ist zwar noch in einer .cr2 Canon RAW-Bilddatei enthalten, es ist jedoch in einem Y'CbCr-Format codiert, ähnlich wie bei vielen anderen Video-Pulldown-Formaten. Es speichert Luminanzinformationen für jedes FULL-Pixel (2x2 Quad von 1 roten, 1 blauen und 2 grünen Pixeln), und jeder Chrominanzkanal wird aus Halbpixeldaten abgeleitet (1x2 Paar von 1 roten + 1 grünen oder 1 blauen + 1 grünen). .

Ich bin mir nicht ganz sicher, wie groß die spezifischen Hardware-Lese- und Codierungsunterschiede zwischen mRAW und sRAW sind. Im Allgemeinen gilt jedoch, dass je kleiner das Ausgabeformat ist, desto mehr Sensorpixel-Eingabeinformationen für jedes Ausgabepixel verwendet werden können. Das geringe Maß an Interpolation in m / sRAW ist umstritten, da beide Formate weit weniger interpolieren als natives RAW. Es sollte auch beachtet werden, dass weder mRAW noch sRAW tatsächliche "RAW" -Formate im normalen Sinne sind ... Sensordaten werden verarbeitet und in etwas anderes konvertiert, bevor sie in einer .cr2-Datei gespeichert werden.

Weitere Informationen zu von YUV abgeleiteten Formaten und Canon sRAW finden Sie in meiner Antwort hier: Warum wird der xvYCC-Farbraum für Standbilder nicht akzeptiert ?

Informationen zu den in einer Canon RAW-CR2-Datei gespeicherten Inhalten:

Das sRaw-Format (für "small RAW") wurde 2007 mit dem 1D Mark III eingeführt. Es ist eine kleinere Version des RAW-Bilds.

Für die 1D Mark III, dann die 1Ds Mark III und die 40D (alle mit Digic III) beträgt die sRaw-Größe genau 1/4 (ein Viertel) der RAW-Größe. Wir können daher annehmen, dass jede Gruppe von 4 "Sensorpixeln" in 1 "Pixel" für den sRaw zusammengefasst ist.

Bei der 50D und der 5D Mark II (mit dem Digic IV-Chip) ist die 1/4-RAW noch vorhanden (sRaw2), und es erscheint auch eine RAW in halber Größe: sRaw1. Bei der 7D wird die halbe Größe raw als mraw (gleiche Kodierung wie sraw1) bezeichnet, 1/4 raw als sraw (wie die sraw2).

Das verlustfreie sRaw-JPEG wird immer mit einer 3-Farben-Komponente (nb_comp) und 15 Bit codiert.

Der JPEG-Code von Dcraw wurde zum ersten Mal geändert (8.79), um sRaw zu verarbeiten, da der Wert h = 2 der ersten Komponente (grauer Hintergrund in der Tabelle) entspricht. Normales RAW hat immer h = 1. Beginnend mit der 50D haben wir v = 2 anstelle von v = 1 (orange in der Tabelle). Dcraw 8.89 ist die erste Version, die dies und das sraw1 von 50d und 5D Mark II handhabt.

"h" ist der horizontale Abtastfaktor und "v" der vertikale Abtastfaktor. Es gibt an, wie viele horizontale / vertikale Dateneinheiten in jeder MCU (Minimum Coded Unit) codiert sind. Siehe T-81, Seite 36.

3.2.1 sRaw- und sRaw2-Format

h = 2 bedeutet, dass die dekomprimierten Daten 2 Werte für die erste Komponente enthalten, 1 für Spalte n und 1 für Spalte n + 1. Bei den beiden anderen Komponenten, dekomprimiertes Zeichnen und Zeichnen2 (die alle h = 2 & v = 1 haben), sind immer 4 Elementarwerte vorhanden

[y1 y2 xz] [y1 y2 xz] [y1 y2 xz] ...
(y1 und y2 für erste Komponente)

Jedes "Pixel" in sRAW- und mRAW-Bildern enthält vier Komponenten ... eine geteilte Y'-Komponente (y1 und y2) sowie ein x (Chrominance Blue) und ein z (Chrominance Red). Alle vier Komponenten (1/2 Bildperspektive, sRAW1 / mRAW) haben eine Spaltenhöhe von 2 (h) und eine Breite von 1 (v). Dies zeigt an, dass der Luminanzwert (Y ') aus einem FULL 2x2 Pixel Quad ... oder zwei 2x1 Pixel Spalten besteht, die in y1 und y2 gespeichert sind.

Die folgenden Referenzen scheinen dies nicht spezifisch darzustellen, daher spekuliere ich hier ein bisschen, jedoch mit dem sRAW2 (1/4 raw) glaube ich, dass die Luminanzinformationen von einem 4x4-Pixelblock mit h = 4 und v = 2 abgeleitet würden. Die Kodierung der Chrominanz würde bei einem Bild mit einer Größe von 1/4 komplexer, da das Bayer-Farbfilter-Array auf dem Sensor nicht in ordentlichen roten und blauen Spalten angeordnet ist. Ich bin nicht sicher, ob abwechselnde Spalten mit einer Höhe von 2x1 für jede Cr- und Cb-Komponente verarbeitet werden oder ob eine andere Form der Interpolation durchgeführt wird. Eines ist sicher ... Die Interpolation der Quelldaten ist immer größer als die der Ausgabedaten, und es kommt, soweit ich das beurteilen kann, zu keiner Überlappung (wie bei der normalen Layer-Interpolation).

Schließlich werden sRAW1 / mRAW und sRAW / sRAW2 unter Verwendung eines verlustfreien Kompressionsalgorithmus komprimiert. Dies ist eine wichtige Unterscheidung zwischen diesen Formaten und JPEG, das ebenfalls eine ycc-Codierung verwendet. JPEG führt eine verlustbehaftete Komprimierung durch, wodurch es unmöglich wird, die Pixel auf ihre exakte ursprüngliche Darstellung zurückzusetzen. Die s / mRAW-Formate von Canon können in der Tat auf die ursprünglichen 15-Bit-Bilddaten mit voller Genauigkeit zurückgesetzt werden.

Verweise:

jrista
quelle
8

Theoretisch könnte es sein, wenn die Kamera die richtige Strategie zur Reduzierung der Bildgröße verwendet.

Wie Sie bereits bemerkt haben, bleibt bei aktuellen Crop-Sensor-Kameras das Rohbild unabhängig von der von Ihnen eingestellten JPEG-Größe gleich. Das JPEG-Bild wird einfach skaliert. Dies kann das Auftreten von Rauschen etwas verringern, die Verringerung ist jedoch auf den Bildskalierungsalgorithmus zurückzuführen (Sie können nicht so viele fleckige Pixel in das kleinere Bild wie in die Vollversion einfügen). Es ist jedoch wahrscheinlicher, dass Sie mindestens genauso gut, wenn nicht sogar besser abschneiden können, wenn Sie die Rauschunterdrückung und Skalierung nachträglich selbst vornehmen.

Es gibt eine Strategie, die eine echte Geräuschreduzierung bewirkt. Einige hochauflösende Mittelformat-Backs (wie die Phase One SensorPlus-Serie) verwenden eine Strategie, die als Pixel-Binning bezeichnet wird. Dabei werden Gruppen benachbarter Sensoren als ein viel größerer Sensor behandelt und ihre kumulative Ladung wird vom Sensor gelesen. Dies unterscheidet sich vom Lesen einzelner Gebühren und von der Mittelwertbildung (auf die Sie sich bei der Verarbeitung nach dem Lesen beschränken). Sie erfolgt auf Hardwareebene und ändert die Bedeutung von "roh". Das gelesene Rauschen hat eine bessere Chance, sich aufzuheben, und die kumulative Ladung macht die Analog-Digital-Umwandlung weniger mehrdeutig (der Bereich der konvertierten Quanten ist bei geringerer Verstärkung breiter).

In der Praxis bedeutet dies normalerweise, die Auflösung um den Faktor vier zu verringern (die Hälfte der Breite und die Hälfte der Höhe). Mit einer Rückseite im Mittelformat von 60 oder 80 Megapixeln haben Sie immer noch ein Bild mit 15 oder 20 Megapixeln. Mit einer 16-Megapixel-Crop-Sensor-Kamera wären Sie auf ein 4-Megapixel-Rohbild angewiesen. Jetzt wissen Sie vielleicht, und ich weiß vielleicht, dass ein sauberes 4-Megapixel-Bild besser ist als ein verrauschtes 16-Megapixel-Bild, aber nicht jeder wird sich auf die Idee einlassen, dass die Herstellung eines kleineren Bildes zusätzliche Kosten verursacht. Das bedeutet, dass es unwahrscheinlich ist, dass Pixelbinning in naher Zukunft in weniger als einer Pro-Level-Kamera verwendet wird. Es kann in Vollbildkameras auftreten, wenn die Auflösung weiter steigt, aber ich würde es nicht in einem Crop-Sensor suchen. (Nun, vielleicht kann Pentax eines Tages einen Stich machen, da sie nicht die volle Größe haben.)


quelle
Es tut mir leid, ich denke, ich sollte über die RAW-Bildgrößen klären. Ich habe eine Canon 60D und 3 Optionen für RAW-Bildgrößen (RAW, M-RAW und S-RAW). Wenn RAW nur ​​ein Dump von den Kamerasensoren ist, wie können sie 3 verschiedene Größen haben? Skaliert die Kamera auch RAW-Bilder?
Viv
@Stan: Canon macht schon genau das, was Sie mit ihren mRAW- und sRAW-Formaten beschrieben haben. Es sind keine wörtlichen RAW-Formate, es sind YUV-Derivate (Y'CrCb um genau zu sein) und es handelt sich in der Tat um Formen des Pixel-Binning. Siehe meine Antwort für weitere Details.
jrista
Zu der Zukunft: Die eigentliche Einschränkung ist die Sensorfläche. Wenn die Sensorgröße gleich bleibt und die Auflösung steigt (durch Verkleinern der Pixel), ergibt sich kein Nettogewinn durch Pixelbinning. Es geht lediglich darum, mehr Sensoren zu verwenden, um denselben physischen Bereich des Sensors zu lesen. Was wir hoffen können, ist eine verbesserte Empfindlichkeit der einzelnen Sinne, so dass mehr Licht und weniger Rauschen in einem bestimmten kleinen Teil des Sensors registriert werden.
Whuber
1
@jrista: Das ist kein Binning, das ist eine Mittelwertbildung nach dem Lesen. Das Binning muss zu einer integralen Verringerung der linearen Auflösung führen, und einzelne Photosite-Daten können nicht verarbeitet werden, da kumulative Lesevorgänge (nicht getrennt, dann gemittelt, Lesevorgänge) über mehrere Sensoren ausgeführt werden. (In einem Bayer-Quad-System bedeutet dies 1/4, 1/16, 1/64 usw. der vollen Auflösung, ausgedrückt als Fläche oder Pixel.) Die Mittelung nach dem Lesen unterscheidet sich technisch nicht von der Skalierung. Es funktioniert nur in einem anderen Datenraum.
1

Wenn Ihr Hauptproblem starkes Rauschen ist, besteht eine Lösung darin, mehrere Bilder aufzunehmen und eine Software mit guten Algorithmen zu haben, die ein gutes Bild von mehreren schlechten kombiniert. Zum Beispiel ALE, Anti-Lamenessing Engine . Bei sich bewegenden Motiven funktioniert dies natürlich nicht, aber Sie können beispielsweise mit einem ISO 1600-Handheld aufnehmen und dann die Aufnahmen kombinieren, um einen Rauschpegel nahe ISO 400 oder 800 zu erzielen.

Zds
quelle