Es ist weit verbreitet, dass der blaue Kanal bei Digitalkameras am lautesten ist. Das ist mir mit meiner Kamera auf jeden Fall aufgefallen. Warum ist das?
Handelt es sich um ein Artefakt einer bestimmten Technologie (z. B. Bayer-Array- oder CMOS-Sensoren) oder handelt es sich um die Physik von höherfrequentem Licht, oder handelt es sich um ein menschliches Sehvermögen?
Anschlussfrage: Warum sind Sensoren für blaues Licht weniger empfindlich?
digital
color
noise
color-blue
mattdm
quelle
quelle
Antworten:
Zusätzlich zu der von Tall Jeff diskutierten Sensorreaktion weist die meiste Szenenbeleuchtung (Sonnenlicht, Glühlampen) im Vergleich zu Grün und Rot einen Mangel an blauem Licht auf. Starten Sie diesen Java-Schwarzkörpersimulator und stellen Sie fest, dass Blau für die gewünschten Farbtemperaturen niedriger als Grün oder Rot ist (~ 5500 K Tageslicht, ~ 3000 K Glühlampe).
Es gibt einen weiteren kleinen Faktor, der das Problem verschärft. CCD- und CMOS-Arrays sind Photonenzähldetektoren. Die meisten Diagramme, einschließlich der im obigen Schwarzkörpersimulator, zeigen die spektrale Energiedichte , nicht die Anzahl der Photonen. Blaue Photonen sind durch das umgekehrte Verhältnis ihrer Wellenlängen energiereicher als rote Photonen. Bei gleichem Energiewert auf den Plots würden Sie also etwa 25% mehr rote Photonen als blaue Photonen erhalten. Und das ist der Ausgangspunkt für die Empfindlichkeitseffekte, die Tall Jeff beschreibt.
In Bezug auf CCDs und rückseitig beleuchtete Sensoren leiden vorderseitig beleuchtete CCDs unter der gleichen verringerten Blauempfindlichkeit, da ein Großteil des blauen Lichts absorbiert wird, während es durch die unempfindliche Gate-Struktur des Chips gelangt. Rückseitig beleuchtete Sensoren sehen eine verbesserte blaue Reaktion. Siehe diese typische spektrale Antwortkurve (für verschiedene Arten von CCDs mit Forschungsqualität).
quelle
Nach dem gegenwärtigen Stand der Technik ist das Rauschen im blauen Kanal eine Kombination von Kaskadeneffekten, die zusammenwirken, um das blaue "Aussehen" am schlechtesten zu machen. Erstens gibt es beim Bayer-Pattern-Setup doppelt so viele grüne Pixel wie rote oder blaue in der Matrix *. Dadurch werden Blau und Rot im Vergleich zum grünen Kanal sofort räumlich benachteiligt, und es entsteht ein viel größeres spektrales Rauschen für diese beiden Kanäle, wenn die RGB-Triplets aus benachbarten Sensorpixeln rekonstruiert werden. Ein 10-Millionen-Pixel-Sensor hat beispielsweise 5 Millionen grüne Quellpixel, 2,5 Millionen rote und 2,5 Millionen blaue. Wenn Sie diese Rohdaten in die endgültigen 10M-RGB-Triplets formen, ist klar, dass es nicht mehr als die Hälfte der Informationen für den roten oder blauen Kanal geben kann, und dies erscheint als eine Form von Rauschen im endgültigen Bild.
Der nächste Effekt betrifft die spektralen Empfindlichkeiten des Sensorsystems durch die Filter Rot, Grün und Blau. Als System reagieren moderne CMOS-Sensoren etwa 50% empfindlicher auf die grünen und roten Bereiche des Spektrums als auf die blauen Bereiche. Beispielsweise können wir für diesen CMOS-Sensor von Cypress auf Seite 3 sehen, dass die relativen Empfindlichkeiten bei Rot (75%), Grün (80%), Blau (50%) liegen, wenn Sie die Kurven für jede Wellenlänge mit den richtigen Wellenlängen indizieren Farbe. Diese mangelnde Empfindlichkeit in Kombination mit einem festen Sensor- und Abtastrauschen für alle Pixel über die Sensoren hinweg hat einen erheblichen Nachteil hinsichtlich des Signal-Rausch-Verhältnisses im Vergleich zu den beiden anderen Farben.
Dies bedeutet, dass CMOS-Farbsensoren die besten Ergebnisse bei der Wiedergabe von Grün erzielen, gefolgt von Rot und schließlich von Blau, das aus der Perspektive des Gesamtrauschens das schlechteste von drei ist.
Mit Blick auf die Zukunft ist zu beachten, dass diese Einschränkungen beim blauen Kanal in erster Linie eine Kosten- / Leistungsoptimierung sind. Das heißt, der Physik ist nichts inhärent, das eine Verschlechterung der Blau-Leistung erfordert, nur dass es bei aktuellen Gerätekonstruktionen VIEL teurer wäre, den Blau-Kanal merklich zu verbessern. Da das menschliche Auge auf der blau / gelben Farbachse nicht sehr empfindlich ist, sind die Lösungen bereits eine sehr gut optimierte Lösung. Ich bin mir sicher, dass die meisten Kamerahersteller es vorziehen würden, zuerst die Gesamtkosten zu senken, bevor sie die gleichen oder mehr bezahlen, nur um die Leistung des Blaukanalrauschens zu verbessern.
** Bayer hat die Matrix auf diese Weise eingerichtet, da das menschliche visuelle System den größten Teil seines Luminanzsignals (dh: Helligkeitsinformationen) aus dem grünen Teil des Farbspektrums erhält. Das heißt, die Stäbchen in den Augen sind am empfindlichsten für grünes Licht, wodurch der grüne Teil des Spektrums optisch am wichtigsten ist. *
quelle
Weil menschliche Augen / Gehirne nicht so empfindlich auf Änderungen des blauen Lichts reagieren wie auf Änderungen des grünen / roten Lichts. Die modernen Kamerasensoren verhalten sich eher wie menschliche Augen und sind daher für Blau weniger empfindlich als für Grün / Rot. Da der Standard für die Anzeige von Neutral auf Farbmonitoren die gleichen Anteile an Blau, Grün und Rot ist und die Sensoren weniger empfindlich für Blau als für Rot und Grün sind, ist es zweckmäßig, den Blaukanal zu verstärken. Das Verstärken des Blaukanalsignals verstärkt auch das Blaukanalrauschen.
Die Kamera-Rauschunterdrückung wird nur angewendet, wenn Sie JPEG-Bilder aufnehmen. Da jedoch viele Leute RAW-Bilder aufnehmen, ist der blaue Kanal immer etwas verrauscht. Ich habe nach einer Lösung für dieses Problem gesucht. Man schlug vor, das Bild in Laborfarben umzuwandeln und nur den Luminanzkanal zu glätten / zu verwischen und dann wieder in RGB umzuwandeln, um Rauschen zu entfernen. Du kannst es versuchen.
quelle
Wir haben eine Analyse der blau-grün-roten Kanäle eines DP3 Merrill im Digitalmodus (RAW) durchgeführt. Ich habe diese Kamera gerade im Juni 2018 gekauft. Der blaue Kanal weist einen pegelabhängigen Fehler im A / D-Wandler auf, der in den Rot-Grün-Kanälen nicht vorhanden ist. Dieser Fehler funktioniert wie erwartet. Es scheint, dass ein Fehler in der Verdrahtung des blauen Kanals a / d oder im Code vorliegt, der die a / d-Spannung in das digitale Signal des blauen Kanals umsetzt. Es ist KEINE Empfindlichkeitsfrage. Es könnte ein Sättigungsproblem sein, dh physikalische Spannungen überschreiten den A / D-Bereich bei sehr niedrigen Spannungen, dh zu viel Verstärkung in diesem Kanal. Die Kamera wurde auf ISO 100 eingestellt, um Daten zu erfassen, und Daten wurden über einen Bereich von Verschlusszeiten und Signalpegeln über einen Frame erfasst. Die Blaukanalmessungen waren bei den niedrigsten Signalpegeln nahezu korrekte Signale. Je höher das Signal, desto größer der Fehler. Dies ist ein Verstärkungs- / Digitalisierungsproblem im Algorithmus, der die X3F-Dateien erzeugt, oder möglicherweise ein Problem mit der Byte-Reihenfolge. Wir sehen uns die X3F-Dateien direkt an, um festzustellen, ob der Fehler bereits vorhanden ist, aber ich gehe davon aus, dass dies der Fall ist, da sowohl die vom Konverter erstellten TIFF- als auch die JPEG-Dateien dasselbe Problem haben. Ist es eine Frage, ob der Hersteller daran interessiert sein wird, dieses Problem zu beheben? Der Foveon-Chip ist eine gute Idee, die richtig konstruiert werden muss. Ist es eine Frage, ob der Hersteller daran interessiert sein wird, dieses Problem zu beheben? Der Foveon-Chip ist eine gute Idee, die richtig konstruiert werden muss. Ist es eine Frage, ob der Hersteller daran interessiert ist, dieses Problem zu beheben? Der Foveon-Chip ist eine gute Idee, die richtig konstruiert werden muss.
quelle