Wie wir wissen, hängt die Farbe eines bestimmten Lichtstrahls von seiner Frequenz (oder Wellenlänge ) ab. Sind das nicht auch die Informationen, die zuerst von Digitalkameras erfasst werden? Warum verwenden wir dann Formate wie RGB (oder CMYK , HSV usw.), um Farben digital darzustellen?
47
Antworten:
Ich denke, es gibt einige Missverständnisse in früheren Antworten, deshalb ist das, was ich denke, wahr. Literaturhinweis: Noboru Ohta und Alan R. Robertson, Colorimetry: Fundamentals and Applications (2005).
Eine Lichtquelle muss keine einzige Frequenz haben. Reflektiertes Licht, was das meiste ist, was wir auf der Welt sehen, muss keine einzige Frequenz haben. Stattdessen hat es ein Energiespektrum, dh seinen Energiegehalt als Funktion der Frequenz. Das Spektrum kann mit Instrumenten gemessen werden, die als Spektralphotometer bezeichnet werden.
Wie im neunzehnten Jahrhundert entdeckt wurde, sehen Menschen viele verschiedene Spektren mit der gleichen Farbe. Es werden Experimente durchgeführt, bei denen mit Hilfe von Lampen und Filtern Licht zweier verschiedener Spektren erzeugt wird und die Personen gefragt werden, ob diese die gleiche Farbe haben. Mit solchen Experimenten kann man nachweisen, dass die Menschen das Spektrum nicht sehen, sondern nur seine Integrale mit bestimmten Gewichtungsfunktionen.
Digitalkameras erfassen die Reaktion auf Licht von Photodiodensätzen, die mit verschiedenen Filtern abgedeckt sind, und nicht das volle Spektrum, das Sie mit einem Spektrophotometer sehen würden. Es werden drei oder vier verschiedene Filtertypen verwendet. Das Ergebnis wird in einer Rohdatei gespeichert, die von der Kamera ausgegeben wird, obwohl viele Leute vermuten, dass Rohdateien von den Kameraherstellern mehr oder weniger "gekocht" werden (Kamerasensoren sind natürlich streng geschützt). Die physiologischen Reaktionen können durch Anwenden einer Matrixtransformation auf die Rohdaten angenähert werden.
Der Einfachheit halber eher als Annäherungen an die physiologischen Reaktionen, andere Arten von Tripel von Zahlen verwendet werden , um Namen Farben verwendet, zum Beispiel Lab, in beschrieben https://en.wikipedia.org/wiki/Lab_color_space (Achtung , Warnung auf der Seite). Man muss Dreiergruppen unterscheiden, die die gesamte Bandbreite der geschätzten physiologischen Reaktionen von anderen ausdrücken können, wie beispielsweise RGB, die dies nicht können. Letztere werden verwendet, weil sie die Farben ausdrücken, die Computerbildschirme anzeigen können. Sie sind das Ergebnis von Konvertierungen von Tripeln wie Lab oder von Rohdaten. CMYK ist für Drucker.
quelle
Das Ziel des Imaging Engineers war es schon immer, mit der Kamera ein originalgetreues Bild der Außenwelt aufzunehmen und dieses Bild so darzustellen, dass der Betrachter ein naturgetreues Bild sieht. Dieses Ziel wurde nie erreicht. Tatsächlich sind die besten Bilder, die heute gemacht werden, schwach. Wenn dieses Ziel erreicht werden soll, benötigen Sie eine Sonnenbrille, um das Bild einer sonnenbeschienenen Aussicht bequem betrachten zu können.
Sie fragen sich, warum Kameras nicht die gesamte Strahlungsenergie erfassen, die die visuelle Reaktion des Menschen erzeugt hat. Warum erfasst die moderne Kamera nur drei schmale Segmente, die wir als primäre Lichtfarben bezeichnen: Rot, Grün und Blau?
Die Antwort fällt in die Kategorie, wie wir sehen, nämlich die menschliche visuelle Antwort. Im Laufe der Jahre wurden viele Theorien darüber aufgestellt, wie Menschen Farbe sehen. Bisher ist es allen nicht gelungen, jeden Aspekt unserer Farbwahrnehmung zufriedenstellend zu erklären. Die Wellenlängen, für die unsere Augen empfindlich sind, decken den Bereich von 400 bis 700 Millimikron ab. Es ist kein Zufall, dass die Erdatmosphäre für diesen Bereich transparent ist.
Wenn wir auf eine Lichtquelle starren, können wir keine bestimmte Wellenlänge unterscheiden, es sei denn, sie wird alleine dargestellt. Wenn wir eine weiße Lichtquelle betrachten, können wir keine bestimmte Farbe isolieren und identifizieren. Unsere Augen-Hirn-Kombination interpretiert die Farbe des Lichts, ohne zu analysieren, woraus der Frequenzmix besteht. Ausgehend davon haben Wissenschaftler experimentell bewiesen, dass durch Mischen von nur drei Farben in unterschiedlichen Anteilen nahezu alle Farben erzeugt werden können. Mit anderen Worten, wenn dem menschlichen Auge in unterschiedlichen Intensitäten eine Mischung aus Rot, Grün und Blau präsentiert wird, können die meisten Spektralfarben nicht exakt, sondern in enger Annäherung reproduziert werden. Dies war das Werk von Thomas Young (britisch 1773 - 1829) mit dem Titel Young Theory of Colour Vision.
Aufbauend auf Youngs Theorie zeigte James Clerk Maxwell (britisch 1831 - 1879) der Welt die erste Farbfotografie, die produziert wurde. 1855 verwendete er drei Projektoren und überlagerte die drei auf eine Leinwand projizierten Bilder. Jeder Projektor war mit einem Farbfilter ausgestattet. Die drei Bilder waren jeweils eine der drei hellen Grundfarben, nämlich Rot, Grün und Blau. Die projizierten Filmbilder wurden durch Aufnehmen von drei separaten Bildern auf drei Schwarzweißfilmen hergestellt, die jeweils durch einen Filter der drei Lichtpremieren belichtet wurden.
Seit diesem Tag im Jahr 1855 wurden unzählige Methoden zur Erstellung und Anzeige von Farbbildern erforscht. Frühe Farbfilme projizierten schwache Farbbilder mit nur zwei Farben. Der Gründer der Polaroid Corp., Edwin Land (Amerikaner 1909 - 1991), experimentierte mit der Herstellung von Farbbildern unter Verwendung von nur zwei Grundfarben. Dies ist eine Neugier des Labors geblieben. Bisher werden die originalgetreuesten Farbbilder mit den drei Farbprimären erstellt. Ein Mann, Gabbriel Lippmann (französisch 1845 - 1921), machte jedoch wunderschöne Farbbilder, die das gesamte visuelle Lichtspektrum einfingen. Er entwickelte eine Methode, bei der ein Schwarzweißfilm mit einem Spiegelträger verwendet wurde. Das belichtete Licht drang in den Film ein, traf auf den Spiegel und wurde zurück in den Film reflektiert. Die Belichtung erfolgte also über zwei Durchgänge des Belichtungslichts. Das Bild bestand aus Silber, das mit einem Abstand angeordnet war, der der Wellenlänge des Belichtungslichts entsprach. Beim Betrachten ließ der Film nur Licht durch, das den Wellenlängen des belichteten Lichts entsprach. Man konnte ein Vollfarbenbild sehen, das keinen Pigmentfarbstoff enthielt. Einzigartig und schön, das Lippmann-Verfahren bleibt unpraktisch. Unsere Film- und Digitalkameras greifen auf die Methode von Maxwell zurück. Wenn Sie sich mit menschlichem Sehen und Farbtheorie befassen, sind Sie vielleicht derjenige, der unsere Wissenschaft voranbringt und das erste wirklich treue Bild erhält. Unsere Film- und Digitalkameras greifen auf die Methode von Maxwell zurück. Wenn Sie sich mit menschlichem Sehen und Farbtheorie befassen, sind Sie vielleicht derjenige, der unsere Wissenschaft voranbringt und das erste wirklich treue Bild erhält. Unsere Film- und Digitalkameras greifen auf die Methode von Maxwell zurück. Wenn Sie sich mit menschlichem Sehen und Farbtheorie befassen, sind Sie vielleicht derjenige, der unsere Wissenschaft voranbringt und das erste wirklich treue Bild erhält.
quelle
Du sagtest,
Das ist nicht richtig. Die Sensoren der meisten Digitalkameras sprechen für sich genommen auf ein breites Spektrum von Lichtfrequenzen an, die über das vom Menschen wahrnehmbare Infrarot- und Ultraviolettspektrum hinausgehen. Da Sensoren ein so breites Lichtspektrum erfassen, sind sie fürchterliche Diskriminatoren von Lichtwellenlängen. Das heißt, grob gesagt, digitale Sensoren werden in Schwarzweiß angezeigt .
Bei den meisten Kamerasensoren¹ werden zur Erfassung von Farben Farbfilter vor dem Sensor platziert, die als Farbfilterarray ( Color Filter Array, CFA) bezeichnet werden. Der CFA schaltet jede Sensorpixel (manchmal genannt Sensel in a) in erster Linie roten, grünen oder blauen Lichtsensor. Wenn Sie die rohen Sensordaten als Schwarzweißbild anzeigen würden, würde das Bild gedithert aussehen, ähnlich einem halbtonigen Schwarzweiß-Zeitungsdruckbild. Bei starker Vergrößerung würden die einzelnen Pixel des Bildes schachbrettartig aussehen.
Wenn Sie die einzelnen Quadrate der Rohbilddaten entsprechend als rot, grün oder blau interpretieren , sehen Sie eine farblich geditherte Version des Bildes, ähnlich einem farblich getönten Zeitungspapierartikel.
Bayer-Farbfilter-Array, von Benutzer Cburnett , Wikimedia Commons. CC BY-SA 3.0
Durch einen Prozess namens Demosaicing, entweder beim Speichern der Bilddaten in der Kamera oder bei der Nachbearbeitung auf einem Computer, wird das Array von Farbdaten rechnerisch kombiniert, um ein RGB-Farbbild mit voller Auflösung zu erstellen. Beim Demosaikieren wird der RGB-Wert jedes Pixels durch einen Algorithmus berechnet, der nicht nur den Wert des Pixels berücksichtigt, sondern auch die Daten in benachbarten Pixeln, die es umgeben.
Wir verwenden ein trichromes Farbmodell, weil Menschen Farben so wahrnehmen. Aus Wikipedia'a Trichromacy-Artikel ,
Auf diese Weise bauen wir Kameras, die das, was wir sehen können, auf eine ähnliche Weise wie das, was wir sehen, einfangen . Beispielsweise ist es für eine typische Fotografie, die das, was wir sehen, erfassen und reproduzieren soll, wenig sinnvoll, auch Infrarot- und Ultraviolettwellenlängen zu erfassen.
Nicht alle Sensoren verwenden einen CFA. Der Foveon X3- Sensor, der von Sigma-DSLRs und spiegellosen Kameras verwendet wird, beruht auf der Tatsache, dass unterschiedliche Wellenlängen des Lichts Silizium in unterschiedlichen Tiefen durchdringen. Jedes Pixel auf dem X3-Sensor besteht aus einem Stapel rot-, grün- und blauerkennender Fotodioden. Da es sich bei jedem Pixel um einen RGB-Sensor handelt, ist für Foveon-Sensoren keine Demosaikierung erforderlich.
Die Leica M Monochrom ist eine teure Schwarzweißkamera ohne CFA-Sensor. Da das einfallende Licht nicht gefiltert wird, ist die Kamera lichtempfindlicher (laut Leica 100% oder 1 Blende, empfindlicher).
quelle
Der Grund, warum Kameras und Displays in RGB arbeiten, ist, dass unsere Netzhäute auf diese Weise funktionieren .
Da unsere Augen Farben mit diesen Komponenten (RGB) codieren, ist es ein sehr bequemes System (obwohl sicherlich nicht das einzige), nicht nur reine Wellenlängen zu codieren (die eine mehr oder weniger deterministische Kombination der Netzhautreaktion für jede chromatische Komponente bilden). aber auch mischfarben.
Das Grundprinzip wäre: "Wenn eine Farbkombination nur als Kombination von drei Komponenten an das Gehirn abgegeben werden kann, kann ich das visuelle System betrügen, indem ich nur eine bestimmte Kombination dieser isolierten, reinen Komponenten (über RGB-Anzeige) präsentiere und das Visuelle zulasse System dekodieren sie, als ob sie die reale Sache waren.
Es ist interessant festzustellen, dass die meisten Farbsysteme, da es sich um Trichromaten handelt, dreidimensionaler Natur sind (Lab, HSV, YCbCr, YUV usw.), und zwar nicht aufgrund der physikalischen Eigenschaften der Farbe , sondern aufgrund der Art und Weise Unser visuelles System funktioniert.
quelle
Ein Versuch, einfach zu antworten:
Wir können praktisch nicht genug Informationen erfassen, um eine vollständige Aufschlüsselung aller vorhandenen Wellenlängen des Lichts, Frequenz für Frequenz, zu speichern, selbst nur innerhalb des sichtbaren Spektrums. Mit RGB können wir die Farbe eines Pixels mit nur drei Zahlen beschreiben. Wenn wir das gesamte Frequenzspektrum des Lichts erfassen würden, würde jedes einzelne Pixel nicht drei Zahlen erfordern, sondern einen Datengraphen. Die Datenübertragung und -speicherung wäre immens.
Es ist nicht notwendig für unsere Augen. Unsere Augen sehen nicht nur drei einzelne Wellenlängen, sondern jeder unserer "roten", "grünen" und "blauen" Rezeptoren erfasst teilweise überlappende Lichtbereiche:
Die Überlappung ermöglicht es unserem Gehirn, die relativen Stärken der Signale als unterschiedliche Farben zwischen den Primärfarben zu interpretieren. Unser Sichtsystem ist also bereits ziemlich gut darin, eine tatsächliche Wellenlänge zu approximieren, wenn nur die relative Signalstärke der drei Primärfarben angegeben wird. Ein RGB-Farbmodell reproduziert den gleichen Informationsstand angemessen.
quelle
Es gibt zwei wechselwirkende Gründe.
Grund (1) ist, dass das Auge (normalerweise) mehrere Lichtwellenlängen von einem bestimmten Punkt empfängt [sozusagen]. Weißes Licht zum Beispiel ist eigentlich (in der Regel) eine Mischung aus vielen verschiedenen Wellenlängen; Es gibt keine "weiße" Wellenlänge. In ähnlicher Weise ist Magenta (heutzutage oft als "pink" bezeichnet (via "hot pink")) eine Mischung aus Rot und Blau, jedoch ohne Grün (was dazu führen würde, dass es weiß erscheint). Ähnlich könnte etwas, das grün erscheint, Kalk und einige Cyan-Komponenten enthalten.
Grund (2) ist also, dass RGB so funktioniert wie das menschliche Auge - es hat rote, grüne und blaue Sensoren.
Kombiniert man also (1) und (2): Damit das menschliche Gehirn die Lichtsignale so interpretiert, wie es die ursprünglichen Signale interpretieren würde, müssen sie in ihren Begriffen codiert werden.
Wenn zum Beispiel (umgekehrt) das Original weißes Licht wäre (was eine Person als solches wahrnehmen würde), es aber beispielsweise mit violetten und roten Sensoren codiert würde - nur die beiden -, würde die Reproduktion für das menschliche Auge als Magenta erscheinen. Ähnlich, aber subtiler oder feiner ... weißes Licht, das eine Mischung aus einer ganzen Reihe von Farben darstellt ... wenn dies beispielsweise mit violetten, gelben und roten Sensoren codiert würde ... würde diese Reproduktion für das menschliche Auge nicht als reines Weiß erscheinen - als (beiläufig) ein gelblich-cremefarbenes. Umgekehrt würde es einem imaginären Alien (und möglicherweise einem echten Tier) mit denselben Sensoren (nämlich violett, gelb und rot) im Auge als ein reines Weiß erscheinen.
Aus dem gleichen Grund… wenn das Original weiß wäre - das heißt eine Mischung aus einer ganzen Reihe von Farben - dann würde ein menschliches Auge, das dies wahrnimmt, dies nur in Bezug auf Rot, Grün und Blau kodieren… und eine Reproduktion, die nur Rot, Grün verwendet und Blau (in den gleichen Anteilen) würde der menschlichen Wahrnehmung als reines Weiß erscheinen - der Punkt ist, dass Informationen in beiden Fällen verloren gehen, aber das Endergebnis perfekt erscheint, weil die Verluste übereinstimmen. Leider werden sie entsprechen genau nur dann , wenn die Sensoren [RGB] in der Kamera Empfindlichkeit haben Kurven genau die gleichen wie die Sensoren [RGB] im menschlichen Auge [Hinweis darauf , dass jeder Sensor durch eine Reihe von Farben aktiviert ist] - wenn zum Beispiel In beiden Fällen aktivierte eine Kalkfarbe jeden der roten, grünen und blauen Sensoren um genau die gleiche Menge.
quelle
tl; dr: Es ist viel einfacher, Licht auf drei breiten Teilen der Spektren zu erfassen, als die Frequenz genau zu analysieren. Der einfachere Detektor bedeutet auch, dass er kleiner sein kann. Und drittens: Der RGB-Farbraum ahmt die Prinzipien der Bedienung des menschlichen Auges nach.
Wie Max Planck nachweist, sendet jeder heiße Körper Strahlung mit verschiedenen Frequenzen aus. Er schlug vor und bewies, dass die Energie in Stößen, so genannten Photonen, ausgestrahlt wird, und zwar nicht kontinuierlich wie vorher angenommen. Und von diesem Tag an war die Physik nie mehr dieselbe. Die einzige Ausnahme ist der ideale LASER / MASER, der Strahlung mit nur einer Frequenz aussendet und Entladungen (Neonstäbe, ...) Strahlung mit mehreren isolierten Frequenzen aussendet.
Die Verteilung der Intensitäten über die Frequenzen nennt man Spektrum. Ähnlich haben die Detektoren auch ihre Spektren, in diesem Fall ist es die Verteilung der Reaktion des Detektors auf eine Strahlung normalisierter Intensität.
Wie bereits erwähnt, ist das weiße Licht weiß, da unsere Augen evolutionär kalibriert sind, um das Sonnenlicht, das von fernem Infrarot bis ultraviolett reicht, als weiß zu erkennen. Blätter sind zum Beispiel grün, weil sie alle Frequenzen absorbieren, mit Ausnahme des Teils, den wir als grün sehen.
Natürlich gibt es Detektoren, die die Spektren erfassen und die Informationen extrahieren können. Sie werden in der optischen Emissionsspektroskopie sowie in Röntgenbeugungs- und Fluoreszenztechniken eingesetzt, bei denen die chemische Zusammensetzung oder Mikrostruktur anhand der Spektren bewertet wird. Für eine Fotografie ist es übertrieben; mit Ausnahme der Astrofotografie, bei der wir die "chemische" Zusammensetzung bewerten wollen, die Bilder jedoch in gefälschte Farben "übersetzt" werden. Diese Detektoren sind genau und groß oder klein, aber ungenau, und Sie benötigen viel mehr Rechenleistung, um sie zu analysieren.
Das menschliche Auge oder irgendein anderes Auge ist nicht der Fall. Wir sehen nicht die chemische Zusammensetzung oder die Bindungszustände des Objekts. Im Auge gibt es vier verschiedene "Detektoren":
Wenn wir uns Regenbogen, CD oder DVD ansehen, werden wir Farben sehen, die sich von rot zu violett ändern. Die Lichtstrahlen für einen bestimmten Teil des Regenbogens haben meist eine perticullare Frequenz. Die Infrarotstrahlen sind für unsere Augen unsichtbar und erregen keine Zelle in der Netzhaut. Wenn Sie die Frequenz erhöhen, werden nur die roten "Zellen" angeregt und die Farbe wird als rot angezeigt. Mit zunehmender Frequenz erregen die Strahlen meistens "rote Zellen" und das kleine bisschen "Grün" und die Farbe wird als orange gesehen. Gelbe Strahlen erregen die "Grünen" etwas mehr ...
Die Sensoren in Kameras, CCD oder CMOS, werden von Lichtstrahlen jeder Frequenz angeregt, um ein Bild aufzunehmen, das unsere Augen als Farbe sehen, die wir nur dem menschlichen Auge nachahmen - wir verwenden zum Beispiel Bayes-Filter. Es besteht aus drei Farbfiltern mit Transmissionsspektren, die den Zelltypen unserer Netzhaut absichtlich ähnlich sind.
Das von einem von der Sonne beleuchteten gelben Papier reflektierte Licht verlässt die "Rottöne" vollständig (100%), die "Grüntöne" ebenfalls vollständig (100%) und leicht den "Blau" (5%), sodass Sie ihn gelb sehen. Wenn Sie ein Bild davon machen, wird die Erregung von der Kamera erfasst. Wenn Sie das Bild auf dem Bildschirm betrachten, sendet der Bildschirm innerhalb kürzester Zeit 100 rote, 100 grüne und 5 blaue Photonen auf Sie zu. Die Erregungswerte Ihrer Netzhaut ähneln der Erregung, die durch direkte Beobachtung verursacht wird, und Sie sehen ein Foto von gelbem Papier.
Es gibt ein weiteres Problem, das gelöst werden muss, wenn die Farben reproduziert werden sollen. Bei Verwendung des RGB-Farbraums werden nur drei Arten von Lichtquellen pro Pixel benötigt. Wir können drei Farbfilter haben (LCDs funktionieren so), wir können drei Arten von LEDs haben (LED- und OLED-Panels verwenden das), wir können drei Arten von Luminophoren haben (CRT verwendet dies). Wenn Sie die Farbe vollständig reproduzieren möchten, benötigen Sie unendlich viele Filter / Quellen pro Pixel. Wenn Sie die Informationen Farbe-zu-Frequenz vereinfachen möchten, hilft es auch nicht.
Sie können auch versuchen, die Farbe anhand ihrer Temperatur zu reproduzieren. Ich nehme an, Sie können nur Rot-Orange-Gelb-Weiß-Farben reproduzieren und müssen jedes Pixel auf Temperaturen um 3000 K erwärmen.
Und in all diesen theoretischen Fällen werden Ihre Augen die tatsächlich wahre Farbe in ihre RGB-Signale umwandeln und an Ihr Gehirn weitergeben.
Ein weiteres zu lösendes Problem ist die Speicherung der Daten. Das herkömmliche 18-MPx-RGB-Bild besteht aus drei Matrizen mit 5184 x 3456 Zellen, wobei jeder Punkt eine 8-Bit-Größe aufweist. Das bedeutet 51 MiB unkomprimierte Datei pro Bild. Wenn wir die gesamten Spektren für jedes Pixel speichern möchten, beispielsweise in 8-Bit-Auflösung, beträgt die Übermatrix 5184 x 3456 x 256, was zu einer unkomprimierten 4-GiB-Datei führt. Das bedeutet, dass Intensitäten von 256 verschiedenen Frequenzen im Bereich von 430–770 THz gespeichert werden, was einer Auflösung von 1,3 THz pro Kanal entspricht.
Total nicht die Mühe wert, wenn ich sagen darf ...
quelle
Die kurze Antwort: Da die Wellenlänge ein einzelner Wert ist und der gesamte Farbbereich, den wir wahrnehmen können, nicht durch einen einzelnen Wert darstellbar ist, können nur die Abmessungen eines rechteckigen Körpers durch eine einzelne Messung dargestellt werden.
Um die Analogie fortzusetzen: Sie können das Volumen des Volumens angeben, aber es gibt viele verschiedene Volumenkörper mit demselben Volumen.
RGB, CMY, HLS usw. verwenden alle drei "Dimensionen", da dies nun viele sind, die Sie benötigen, um Farben, wie sie von Menschen gesehen werden, angemessen zu beschreiben.
Die Wellenlänge entspricht im HLS-System dem Farbton, kann jedoch weder Helligkeit noch Sättigung anzeigen.
Zu "Ist das nicht auch ([Wellenlänge]) die Information, die zuerst von Digitalkameras erfasst wird?" Nein, das ist es nicht.
Wie andere angemerkt haben, erfassen Digicams relative Intensitäten von Rot, Grün und Blau. (Einige haben mindestens eine zusätzliche Farbe verwendet, um eine bessere Unterscheidung im kritischen Rot-Grün-Bereich zu erzielen.) Eine direkte Messung der Frequenz des einfallenden Lichts wäre weitaus schwieriger. Wir haben einfach keine billigen Sensoren, die das können, schon gar keine, die wir in einem Raster von mehreren Millionen von ihnen herstellen können. Und wir brauchen immer noch eine Möglichkeit für die Kamera, um Helligkeit und Sättigung zu messen.
quelle