In der Schule haben wir alle gelernt, dass wir mit weißem Licht nur das sichtbare Spektrum wahrnehmen können, aber weder UV- noch IR- Anteile sehen können.
Wenn dies der Fall ist, warum können wir dann Infrarotfotografie machen ? Okay, das Objektiv kann das, aber wie können wir die IR-Farben im endgültigen Bild sehen? Woher wissen wir wirklich, dass es sich um das IR-Licht handelt und nicht nur um dramatische Farben?
Antworten:
"Farbe" ist im Wesentlichen eine Eigenschaft der Verteilung der Wellenlängen des sichtbaren Lichts (vom Menschen wahrgenommen).
Digitalkameras erfassen nur die Lichtmenge an jedem Pixel, sie können die Wellenlänge nicht messen und daher keine Farben direkt aufnehmen. Farbbilder werden durch Platzieren abwechselnder Rot / Grün / Blau-Filter vor jedem Pixel erzeugt. Durch Platzieren eines Rotfilters (eines, das grünes und blaues Licht blockiert) vor einem Pixel können Sie somit die Menge an rotem Licht an dieser Stelle messen.
Bei der Infrarotfotografie mit Standard-Digitalkameras wird sichtbares Licht herausgefiltert (und optional die eingebaute IR-Filterung entfernt), sodass nur Infrarotlicht aufgezeichnet wird. Die abwechselnden Rot / Grün / Blau-Filter bleiben bestehen.
Es gibt verschiedene Wellenlängen von Infrarotlicht, diese Wellenlängen entsprechen jedoch nicht der "Farbe", da sie für das menschliche Auge unsichtbar sind. Echtes Infrarot im Bereich von 850 nm und mehr durchläuft die Rot- / Grün- / Blau-Filter mehr oder weniger gleichmäßig, sodass Sie nur ein Graustufenbild mit Intensität erhalten:
http://www.mattgrum.com/photo_se/IR_1.jpg
Wellenlängen, die näher am sichtbaren Spektrum liegen, also nahes Infrarot im 665-nm-Bereich, durchlaufen die RGB-Filter in unterschiedlichen Mengen, sodass ein Bild mit unterschiedlichen RGB-Werten erzeugt wird. Wenn Sie also auf einem Computer angezeigt werden, erhalten Sie ein Farbbild.
Aber die Farben sind nicht "echt", in dem Sinne, dass Farbe eine Eigenschaft des menschlichen Sehens ist und diese Wellenlängen außerhalb unseres Sehens liegen, so dass das Gehirn keine Möglichkeit definiert hat, sie uns zu präsentieren. Die verschiedenen Farben, die Sie in einem digitalen Infrarotbild sehen (das von Ihrem Computermonitor im sichtbaren Bereich reproduziert wird), sind auf einen Mangel an Blau- und Grünfiltern zurückzuführen.
Die blauen Filter dienen zum Herausfiltern des roten und grünen Lichts mit niedrigerer Frequenz, jedoch im sichtbaren Spektralbereich (da der IR-Filter der Kamera normalerweise alles andere herausfiltert). Wenn sichtbares Licht blockiert und Frequenzen äußerst gering (wie diejenigen , die durch Laub reflektiert über den Holz - Effekt ) beginnen sie wieder durch die blauen und grünen Filter passieren!
Das untere Ende des sichtbaren Spektrums / sehr nahes IR (das am Himmel reichlich vorhanden ist) erregt also hauptsächlich die roten Pixel, da die blauen und grünen Filter immer noch ihre Arbeit verrichten. Nahes IR (von Blättern reflektiert) beginnt, Blau und Grün anzuregen Pixel, da die Filter außerhalb ihres normalen Bereichs arbeiten.
Das Ergebnis ist ein rot aussehender Himmel und blau / türkis aussehende Bäume, wie folgt:
(Quelle: wearejuno.com )
Da diese Farben jedoch nicht real sind, tauschen Fotografen häufig die Rot / Blau-Kanäle aus, was zu einem normaleren blauen Himmel und grün / gelben Bäumen führt:
http://www.mattgrum.com/photo_se/IR_2.jpg
quelle
Das Bild, das wir von einer Infrarotkamera sehen können, ist ein sogenanntes Falschfarbenbild . Dies bedeutet, dass ein Bereich von Wellenlängen im Infrarotspektrum mit einer entsprechenden Wellenlänge von sichtbarem Licht gerendert wird. Genau wie bei sichtbarem Licht kann eine bestimmte Wellenlänge von Infrarotlicht in der Intensität von knapp über Schwarz (Schatten) bis nahezu Sättigung (Glanzlichter) variieren.
Wie jede Wellenlänge und Intensität des Infrarotlichts in sichtbares Licht umgewandelt wird, hängt stark vom Zweck und der beabsichtigten Verwendung des Infrarotbilds ab. Dies hängt auch davon ab, ob das Bild mit einer Kamera aufgenommen wurde, die von Grund auf für die Aufnahme von Licht im Infrarotspektrum ausgelegt ist, oder mit einer Kamera, die sichtbares Licht aufnimmt, das durch Entfernen des bei den meisten Kameras vorhandenen Infrarotfilters in Infrarotlicht umgewandelt wurde und Hinzufügen eines Filters zum Entfernen von sichtbarem Licht.
Bilder von astronomischen Instrumenten, die den Nachthimmel im Infrarotbereich fotografieren, werden in der Regel so verarbeitet, dass sie wie der sichtbare Nachthimmel aussehen, auch wenn sich das, was am Himmel sichtbar ist und was nicht, in einem Infrarotbild von dem unterscheidet, was im sichtbaren Bereich sichtbar ist helles Bild. Typischerweise werden kürzere Wellenlängen von Infrarotlicht als kürzere Wellenlängen von sichtbarem Licht (blau), mittlere Wellenlängen von Infrarotlicht als mittlere Wellenlängen von sichtbarem Licht (grün) und längere Wellenlängen im Infrarotspektrum als länger wiedergegeben Wellenlängen im sichtbaren Lichtspektrum (rot).
Andererseits zeigen Bilder, die verwendet werden, um Menschen im Dunkeln zu sehen ("Nachtsicht" -Bilder), häufig unterschiedliche Intensitäten derselben Wellenlänge (10 um - die Wellenlänge, bei der Menschen die meiste Wärme ausstrahlen) und verwenden unterschiedliche Farben. In diesem Fall könnte Weiß die höchste Intensität bei 10 um, Rot eine etwas geringere Intensität bei 10 um, Grün eine noch geringere Intensität usw. bezeichnen. Die anderen Wellenlängen des Infrarotlichts werden möglicherweise überhaupt nicht wiedergegeben.
Beispiele für jedes der oben genannten Szenarien finden Sie oben im Wikipedia-Artikel über Infrarot .
quelle
Ja, die Infrarotfotografie zeichnet Infrarotwellenlängen auf. Normalerweise wird ein Filter verwendet, um sicherzustellen, dass kein sichtbares Licht aufgenommen wird. Sensoren und Filme basieren nicht auf dem menschlichen Auge, daher sind ihre Einschränkungen unterschiedlich. Wir können das Infrarotlicht auf den resultierenden Fotos sehen, da es in einer anderen Farbe als Infrarot angezeigt wird.
In der Fotografie stimmen die Farben in der resultierenden Fotografie selten genau mit der ursprünglichen Ansicht überein. Tatsächlich ist es sehr aufwändig, zu verhindern, dass sich die Farben während des gesamten Workflows ändern. Es gibt verschiedene Techniken, bei denen die Farben mehr oder weniger verändert werden, z. B. Cross-Processing, HDR, Schwarzweiß usw .; und IR-Fotografie ist nur einer von ihnen. Die Röntgenbildgebung ist ein weiteres Beispiel, um unsichtbare Wellenlängen in sichtbare Wellenlängen umzuwandeln.
quelle
Die Kamera ist ein Raster von Sensoren, die Photonen aus einem bestimmten Bereich zählen. Sie zählen diese Photonen und erstellen eine Tabelle mit der Frequenz der Photonen (wie viele Photonen pro Zeiteinheit, nicht ihre EM-Frequenz) für jeden Sensor im Gitter.
In der Praxis haben Kameras Sensoren, die für die Erfassung roter, blauer und grüner Photonen optimiert sind, sie erfassen jedoch auch Infrarot. Mit Filtern können Sie nur IR auf die Sensoren zulassen. Sie erhalten dann eine Zahlentabelle mit der Frequenz der Photonen im IR-Bereich.
Sie können nun mit diesem Tisch tun, was Sie möchten. Sie können es als 3D-Funktion mit der Frequenz als Höhe zeichnen. Sie können niedrige Zahlen auf Schwarz und hohe Zahlen auf Weiß abbilden, um ein Graustufenbild zu erstellen. Sie können niedrige Zahlen auf Schwarz, mittlere Zahlen auf Orange-Gelb und hohe Zahlen auf Schwarz abbilden, um die Art und Weise nachzuahmen, wie glühendes Metall leuchtet.
Der Grund, warum Sie die IR-Farben sehen können, ist, dass die Kamera kein Bild mit genau den gleichen (IR-) Farben wie sie erzeugt. Es wird ein transformiertes Bild erzeugt, bei dem jede IR-Wellenlänge auf eine sichtbare Wellenlänge abgebildet wird. Dies geschieht nicht durch Software, sondern von selbst: Die Sensoren erfassen normalerweise sowohl sichtbares als auch IR-Licht. Die Software geht jedoch davon aus, dass alles sichtbar ist, da ein IR-Filter Photonen mit IR-Wellenlängen blockiert. Aber manche Leute entfernen die Filter.
Es ist alles möglich, spezielle Wärmebildkameras herzustellen, bei denen die Sensoren tatsächlich für das Erfassen von IR optimiert sind. Diese würden wahrscheinlich Software haben, die explizit IR in sichtbares Licht umwandelt.
quelle