Soweit ich weiß, haben die meisten Digitalkameras einen Sensor, bei dem jeder Pixelsensor drei Subsensoren hat, von denen jeder einen R-, G- und B-Filter hat. RGB ist offensichtlich das grundlegendere Farbmodell, da es direkt mit den Rezeptoren (Zapfen) im menschlichen Auge korrespondiert.
RGB-Filter schneiden jedoch notwendigerweise zwei Drittel des weißen Lichts aus, um ihre Komponente zu erhalten. Sicherlich würden Kameras von kürzeren Belichtungszeiten profitieren, wenn die Filter CYM wären, bei denen jedes Element nur ein Drittel des Lichts ausschneidet. Der Prozessor der Kamera kann das Bild weiterhin in dem vom Verbraucher gewünschten Format speichern, da ein CYM-Datenpunkt problemlos in ein RGB-Format konvertiert werden kann.
Ich weiß, dass dies manchmal in der Astrofotografie gemacht wird, wo drei separate Schwarzweißfotos mit CYM-Filtern aufgenommen werden.
Liege ich einfach falsch und das ist in der Tat bereits erledigt - oder gibt es einen guten Grund für einen RGB-Sensor?
Antworten:
Zunächst ein wenig Hintergrundwissen, um ein leichtes Missverständnis von Ihrer Seite auszuräumen.
Die überwiegende Mehrheit der digitalen Farbkameras verfügt über einen Bayer-Filter , der jedes Pixel mit einem Farbfilter maskiert: Rot, Grün oder Blau. ¹ Die RAW-Daten enthalten keine Farbinformationen, sondern nur einen Luminanzwert für jedes Pixel.
Nicht wirklich. Es gibt viel grünes Licht, das es an den Filtern 'Rot' und 'Blau' vorbei bringt. Es gibt viel 'rotes' Licht und ein gutes Stück 'blaues' Licht, das den 'grünen' Filter passiert. Es gibt ein 'blaues' Licht, das am Rotfilter vorbeigeht und umgekehrt. Die Wellenlängen, auf die sich die Filter 'Grün' und 'Rot' konzentrieren, liegen sehr nahe beieinander, und 'Rot' liegt normalerweise irgendwo zwischen 580 nm und 600 nm, was mehr im Bereich 'Gelb-Orange' als im Bereich 'Rot' liegt. Die "Peaks" der Filter in einem typischen Bayer-Array stimmen nicht mit den Wellenlängen überein, die wir als "rot", "grün" und "blau" beschreiben.
In gewisser Hinsicht sind unsere Kameras also wirklich YGV (Gelb-Grün-Violett) und RGB. Unsere Farbwiedergabesysteme (Monitore, Drucker, Rollendruckmaschinen usw.) sind RGB, CMYK oder eine andere Farbkombination.
Dies ahmt das menschliche Auge nach, in dem unsere "roten" Kegel um 565 nm zentriert sind, was ein grünliches Gelb ist, im Gegensatz zu unseren "grünen" Kegeln, die um 540 nm zentriert sind, was grün ist und nur einen Hauch von Gelb enthält Weitere Informationen darüber, wie sowohl das menschliche Sichtsystem als auch unsere Kameras aus dem Teil des elektromagnetischen Strahlungsspektrums, den wir als "Licht" bezeichnen, "Farbe" erzeugen, finden Sie unter: Warum sind Rot, Grün und Blau die Primärfarben des Lichts?
Zwischen den Filterfarben gibt es keine harte Grenze, wie bei einem Filter, der in einem wissenschaftlichen Instrument verwendet wird und nur ein sehr enges Wellenlängenband durchlässt. Es ähnelt eher den Farbfiltern, die wir für Schwarzweißfilme verwenden. Wenn wir einen Rotfilter mit Schwarzweißfilm verwenden, verschwinden alle grünen Objekte nicht oder sehen ganz schwarz aus, wie dies bei einem harten Cutoff der Fall wäre. Vielmehr sehen die grünen Objekte dunkler aus als die roten Objekte, die in der tatsächlichen Szene ähnlich hell sind.
Fast alle Bayer-Filter enthalten wie das menschliche Auge doppelt so viele "grüne" Pixel wie "rote" oder "blaue" Pixel. Mit anderen Worten, jedes zweite Pixel wird mit "Grün" maskiert und die verbleibende Hälfte wird zwischen "Rot" und "Blau" aufgeteilt. Ein 20-Megapixel-Sensor hätte also ungefähr 10 Millionen grüne, 5 Millionen rote und 5 Millionen blaue Pixel. Wenn die Luminanzwerte von jedem Pixel von der Verarbeitungseinheit der Kamera interpretiert werden, wird die Differenz zwischen benachbarten Pixeln, die mit unterschiedlichen Farben maskiert sind, zum Interpolieren eines Rot-, Grün- und Blau-Werts verwendet ( der tatsächlich etwa 480, 530 und 640 Nanometern entspricht ). für jedes Pixel. Jede Farbe wird zusätzlich ungefähr auf die Empfindlichkeit des menschlichen Auges gewichtet, so dass das "Rot"
Das Umwandeln von monochromen Luminanzwerten von jedem Pixel in einen interpolierten RGB-Wert für jedes Pixel wird als Demosaikieren bezeichnet. Da die meisten Kamerahersteller dafür proprietäre Algorithmen verwenden, werden bei Verwendung von RAW-Konvertern von Drittanbietern wie Adobe Camera RAW oder DxO Optics geringfügig andere Ergebnisse erzielt als bei Verwendung des herstellereigenen RAW-Konverters. Es gibt einige Sensortypen wie den Foveon, bei denen drei farbempfindliche Schichten übereinander gestapelt sind. Die Hersteller behaupten jedoch, ein solcher Sensor mit drei übereinander gestapelten 15MP-Schichten sei ein 45MP-Sensor. In der Realität liefert eine solche Anordnung die gleiche Detailgenauigkeit wie ein herkömmlicher Bayer-Maskensensor mit ca. 30 MP. Zumindest bisher war das Problem bei Sensoren vom Typ Foveon eine schlechtere Rauschleistung in Umgebungen mit schlechten Lichtverhältnissen.
Warum verwenden die meisten Digitalkameras keine CYM-Filter anstelle von RGB¹-Filtern? Der Hauptgrund ist die Farbgenauigkeit, die durch die menschliche Wahrnehmung der verschiedenen Lichtwellenlängen definiert wird. Bei Verwendung einer CYM-Maske ist es viel schwieriger, Farbwerte mit Werten benachbarter Pixel genau zu interpolieren als bei Verwendung einer "RGB" -Maske.¹ Sie verzichten daher auf eine geringe Lichtempfindlichkeit, um die Farbgenauigkeit zu verbessern. Schließlich erfolgt die meiste kommerzielle Fotografie auf höchstem Niveau entweder mit kontrollierter Beleuchtung (z. B. in einem Porträtstudio, in dem das Hinzufügen von Licht einfach genug ist) oder mit einem Stativ (das längere Belichtungszeiten ermöglicht, um mehr Licht zu sammeln). Und die Anforderungen professioneller Fotografen sind es, die die Technologie antreiben, die dann den Weg zu Produkten für Endverbraucher findet.
¹ Mit Ausnahme der drei Farbfilter für die meisten "RGB" - Kameras mit Bayer - Maske sind sie wirklich "blau mit einem Hauch von Violett", "grün mit einem Hauch von Gelb" und irgendwo zwischen "gelb mit einem Hauch von Grün" (was die Farbe nachahmt) am meisten menschliches Auge) und 'Gelb mit viel Orange' (was für einen CMOS-Sensor einfacher zu implementieren zu sein scheint).
quelle
Cyan-Magenta-Gelb-Sensoren wurden zusammen mit Rot-Grün-Cyan und einigen anderen Variationen hergestellt.
Das Hauptproblem besteht darin, dass selbst bei RGB-Sensoren eine signifikante Überlappung zwischen der spektralen Antwort jedes der Farbstoffe besteht, dh die "grünen" Pixel sind in gewissem Maße empfindlich gegenüber rotem und blauem Licht. Dies bedeutet, dass die Ergebnisse komplexe Berechnungen erfordern, um genaue Farben zu erhalten. Die relativen Antworten benachbarter roter und blauer Pixel werden verwendet, um zu beurteilen, wie viel der grünen Antwort tatsächlich das Ergebnis von rotem und blauem Licht war.
Mit CMY ist das Problem viel schlimmer. Sie tauschen im Wesentlichen Lichteffizienz gegen Farbgenauigkeit. Dies ist möglicherweise in Ordnung für astronomische Fotografie, bei der Sie nicht immer scharfe Farbgrenzen haben. Daher können Sie das Farbrauschen durch Unschärfe reduzieren. Für Landschafts- oder Modefotografie ist dies jedoch nicht geeignet.
Bei den RGB-Chips variiert die genaue Auswahl der Filter je nach Hersteller. Canon verwendet beispielsweise schwache Farbstoffe mit einer breiten Empfindlichkeit, um die Leistung bei schlechten Lichtverhältnissen zu verbessern. Die verwendeten Farbstoffe sind jedoch auch darauf abgestimmt, Farben bei fluoreszierender Beleuchtung zu erkennen, zum Vorteil der Armee von Sport- und Nachrichtenfotografen, die Canon-Kameras verwenden.
Sony hingegen hat mit dem A900 versucht, mit einer sehr hohen Farbgenauigkeit in den professionellen Modemarkt einzusteigen. Farbfilter-Arrays, die in Digitalrückteilen mit mittlerem Format verwendet werden, sind so abgestimmt, dass sie ansprechende (wenn auch nicht unbedingt genaue) Hauttöne liefern.
quelle
Die Gründe, warum sich Kamerahersteller für das RGBG Bayer-Array entschieden haben, hängen wahrscheinlich mehr mit Patenten, Verfügbarkeit und Kosten zusammen als mit der Farbgenauigkeit. Grundsätzlich sollte jeder Satz von drei geeigneten "orthogonalen" (sozusagen) Farben für die Farbwiedergabe in Ordnung sein. Mit moderneren Sensoren und Prozessoren sollte es noch einfacher sein.
Ich bezweifle die Behauptung der Farbgenauigkeit zwischen RGB und CMY, da die Konvertierungen zwischen RGB und CMYK für den Druck immer durchgeführt werden. Vor dem Weißabgleich entsprechen die demosaikierten Farben in Rohdateien nicht den tatsächlich gewünschten Farben. Wenn die Farben wirklich "genau" wären, müssten Fotografen nicht so viel Zeit mit der Farbkorrektur von Fotos verbringen.
Die verschiedenen Sensorexperimente von Fujifilm (Super CCD, EXR CMOS, X-Trans) zeigen, dass es nicht unbedingt der beste Weg ist, etwas auf bestimmte Weise zu tun, nur weil alle anderen dies tun. Kodak experimentierte auch mit verschiedenen Farbarrays , aber sie vermarkteten ihre Technologie und Patente nicht sehr gut.
Die Nikon Coolpix 5700, eine 5-Megapixel-Kamera aus dem Jahr 2002, scheint zu den letzten Kameras zu gehören, die ein CYGM-Farbarray verwenden . Digitalfotografie Bewertung sagt (Betonung hinzugefügt) :
quelle