Laut lytro.com kann die neue Lichtfeldkamera nicht nur eine Lichtebene, sondern das gesamte Lichtfeld erfassen und bietet so eine Reihe neuer Nachbearbeitungsmöglichkeiten, einschließlich Fokus- und Perspektivenanpassung.
Welche Art von Sensor könnte "jeden Lichtstrahl zu jedem Zeitpunkt in jede Richtung erfassen"? Wie würde eine im Wesentlichen unendliche Informationsmenge codiert und manipuliert? Würde es ein Objektiv im herkömmlichen Sinne geben?
Hier ist die Dissertation des Erfinders: http://www.lytro.com/renng-thesis.pdf
Kann jemand für diejenigen von uns, die sich mit traditionellen Technologien auskennen, Abhilfe schaffen?
Antworten:
Die einfache Art, darüber nachzudenken, ist wie folgt:
Stellen Sie sich vor, Sie hätten statt einer Kamera ein Raster von 100 Kameras in einem 10x10-Array. Wenn Sie einen Schuss abgeben, schießt jeder zur gleichen Zeit. Sie haben jeweils eine etwas andere Ansicht von dem, was Sie fotografieren. Es gibt einige mathematische Modelle, mit denen Sie das Image sortieren und auf verschiedene Arten neu erstellen können. Das ist es, worum es hier geht, außer dass Sie anstelle von 100 Kameras Tausende haben, die alle von einer Anordnung von Linsen direkt über der Sensorebene gebildet werden. Das Bild, das aus dem Kamerasensor kommt, enthält also eine Reihe von Kreisen mit Teilbildern, die sich jeweils geringfügig von dem daneben unterscheiden. Dann verwenden sie Mathematik, um ein einzelnes Bild aus diesen Teilbildern zusammenzusetzen.
quelle
Hier ist meine Nussschale, nachdem ich Ren Ngs sehr zugängliches Papier gelesen habe.
Bei einer herkömmlichen Digitalkamera wird das einfallende Licht auf eine Ebene fokussiert, den Sensor, der die Helligkeit an jedem Pixel der lichtempfindlichen Zelle misst. Dies erzeugt ein endgültiges Bild in dem Sinne, dass das resultierende Werteraster als kohärentes Bild gezeichnet werden kann.
Eine Lichtfeldkamera ( Plenoptic ) verwendet dieselbe Art von Sensor, platziert jedoch eine Reihe von Mikrolinsen vor dem Sensor. Dies wird zur Abbildungsebene und definiert die Pixelauflösung der nachbearbeiteten Bilder und nicht des Sensors als Ganzes. Jede Mikrolinse fängt Lichtstrahlen für die verschiedenen Richtungen ein und erzeugt ein "Subaperturbild", das auf einer Gruppe von Zellen auf dem Sensor aufgezeichnet wird. Ein hilfreiches Diagramm aus dem Papier:
Die herkömmliche Fotografie, die erzeugt worden wäre, kann abgeleitet werden, indem die Anordnung von Subaperturbildern für jedes Pixel summiert wird. Der Punkt ist jedoch, dass Ableitungen durch die Verwendung von Raytracing-Berechnungen möglich werden. (Leonardo de Vinci wäre neidisch.) Insbesondere kann die Schärfentiefe manipuliert werden, wodurch die traditionelle Öffnung / Schärfentiefe von Schäkeln entkoppelt wird. Möglicherweise ist auch eine Korrektur der Linsenaberration möglich.
Das Papier beschreibt, dass das "gesamte" Lichtfeld und "alle" Lichtrichtungen erfasst werden können, obwohl dies in Wirklichkeit durch die Anzahl der Mikrolinsen, die Sensorfläche unter jeder Linse usw. begrenzt wäre Andernfalls könnte man "praktisch alle" sagen, wenn genügend Auflösung vorhanden ist. Ich nehme also an, dass Plenoptic-Kameras die Pixelanzahl UND die Strahlenzahl ankündigen würden.
quelle