Könnte eine „Universalbelichtung“ praktisch möglich sein?

14

Ich bin nicht sicher, wie ungebildet diese Frage ist, aber ich bin am Lernen interessiert. Vielen Dank im Voraus für Ihre Nachsicht.

Der Film verändert sich im Laufe der Zeit, in der er belichtet wird. Ein digitaler Sensor tut dies jedoch nicht. es liest nur Daten. Gibt es einen Grund, warum die Kamera nicht dazu gebracht werden konnte, sich an die Sensorwerte an jedem Belichtungspunkt zu "erinnern"? Es sind nur Daten. Es kann eine Menge Daten geben, aber es gibt Zeiten, in denen man das tun möchte, nein? Mehr Flexibilität bei der Nachbearbeitung.

Wenn Datenspeicherung kein Thema wäre, gibt es einen Grund, warum dies nicht die Norm sein könnte, zumindest für professionelle Fotografie und Kunstfotografie?

Wombat Pete
quelle
Interessanterweise ist das fast genau das, was unsere Augen tun. HDR wurde entwickelt, um zu versuchen, die in unseren Retina-Zellen und im visuellen Kortex durchgeführten Algorithmen zu rekonstruieren und sie so gut wie möglich zu emulieren.
Cort Ammon - Reinstate Monica
@CortAmmon Und selbst dann haben die fortschrittlichsten einfachen Augen die zusätzliche Eigenschaft der Iris, die sich ausdehnt oder zusammenzieht, um mehr oder weniger Licht durch die Pupille als zusätzliche Komponente bei der Intensitätsregulierung zuzulassen. (Natürlich passen sich die Augen auch nicht sofort an, wie leicht zu erkennen ist, wenn man von einem hellen zu einem hellen Bereich übergeht, oder, was noch schmerzhafter ist, umgekehrt.)
JAB
Ein digitaler Sensor verändert sich auch physisch, da er Licht ausgesetzt ist (Diskussionen über "physikalisch" gegen "chemisch" gegen "elektrisch" können geführt werden, aber ich kann behaupten, dass sie dasselbe sind). Eine "perfekte" Kamera würde die Position / Zeit / den Winkel jedes Photons aufzeichnen; ziemlich schwierig (wirklich perfekt ist wegen Heisenberg unmöglich), es sei denn, Sie machen Kompromisse: Umgang mit extrem wenigen Photonen, in einem bestimmten Band ( Zwei-Photonen-Anregung , Neutrinodetektoren )
Nick T
@ Cort Ammom Ich denke, Sie sind auf dem richtigen Weg, was die Erwähnung von HDR angeht, bei der das Konzept der Mehrfachbelichtungseinstellungen auf ein einziges hochauflösendes Bild zurückgeführt wird. Um diese Funktionalität in Echtzeit zu erhalten, ohne dass Änderungen an den Einstellungen erforderlich sind, müsste meines Erachtens eine Kamera mit mehreren Objektiven vorhanden sein - vielleicht reichen 5 für anständige HDR-Bilder.
A.Danischewski
Ist es genau das, was unsere Augen tun, Cort? Mein Verständnis ist, dass unsere Augen eine Szene vor uns scannen und Fokus und Belichtung (sehr schnell, aber alles andere als augenblicklich) anpassen, während sie sich bewegen. Und dass unser Gehirn aus dem Ergebnis ein Bild macht. HDR ist näher dran - Belichtungsreihen belichten die Szene effektiv und kombinieren dann die am besten belichteten Teile. In der Tat sehr nah - in einer Situation mit hohem Dynamikbereich wird das Auge wahrscheinlich häufig vorübergehend schlecht belichtet, aber wir "vergessen" diese Momente, wenn wir unser Bild der Szene erstellen.
Wombat Pete

Antworten:

20

Ein digitaler Sensor ist nicht unbedingt als "Daten lesen" zu bezeichnen. Ein viel besserer Weg , es zu beschreiben ist „Sammeln von Photonen“, die dann in Daten umgewandelt , indem die mikroskopisch kleinen elektrischen Ladungen messen sie produzieren , sobald die Sammelperiode ist vorbei . Sie sind nicht in der Lage, den sich ändernden Zustand jedes Pixels kontinuierlich aufzuzeichnen, während sie Licht sammeln. Und je nachdem, wie wenig oder wie viel Licht auf den Sensor fällt, kann es lange dauern, bis genügend Photonen auf den Sensor treffen, bevor mehr als zufällige Daten generiert werden. Andererseits können sich bei sehr hellem Licht manchmal alle Pixelvertiefungen so schnell füllen, dass zusätzliche Photonen, die auf den Sensor fallen, verloren gehen.

Im ersten Szenario werden nicht genügend Photonen gesammelt, um ein erkennbares Muster durch das "Rauschen" zu erzeugen, das durch die durch den Sensor fließende Energie erzeugt wird, die zum Sammeln der Spannungen verwendet wird, die durch die in die Pixelwannen fallenden Photonen erzeugt werden. Somit werden keine nutzbaren Informationen gesammelt. Ihr gesamtes Foto ist dunkel mit zufälligen Farb- und Lichtflecken.

Im zweiten Szenario werden so viele Photonen gesammelt, dass jedes Pixel mit demselben Maximalwert ausgelesen wird, der als vollständige Sättigung bezeichnet wird, und da jedes Pixel im Bild denselben Wert hat, wurden keine verwendbaren Informationen beibehalten. Ihr gesamtes Foto ist hellweiß.

Erst wenn genügend Photonen auf einen Sensor treffen, haben die Bereiche mit mehr Photonen pro Zeiteinheit einen höheren Auslesewert als Bereiche mit weniger Photonen pro Zeiteinheit. Erst dann hat der Sensor aussagekräftige Informationen gesammelt, die Bereiche unterschiedlicher Helligkeit unterscheiden können.

Stellen Sie sich vor, Sie stellen einige Wassereimer in Ihrem Garten auf, um Regentropfen zu sammeln. Stellen Sie sich vor, sie haben alle etwas Wasser in sich, aber Sie werfen es heraus, bevor Sie sie platzieren. Einige befinden sich unter dem Dach Ihres Hauses. Einige stehen unter großen Bäumen in Ihrem Garten. Einige sind im Freien aufgestellt. Einige werden unter den Auslauf gestellt, der das Wasser aus den Rinnen in den Hof leitet. Dann fängt es an zu regnen.

Nehmen wir an, es regnet nur für sehr kurze Zeit: 15 Sekunden. In jedem Eimer sind ein paar Tropfen Wasser. Es ist jedoch nicht genug Wasser in jedem Eimer, um feststellen zu können, ob in jedem Eimer mehr Regenwasser gefallen ist oder ob möglicherweise nur ein paar Tropfen mehr im Eimer waren, als Sie das Wasser abgelassen haben, bevor Sie die Eimer abgestellt haben auf dem Hof. Da Sie nicht über genügend Daten verfügen, um zu bestimmen, wie viel Regen auf welche Teile des Hofs gefallen ist, werfen Sie alle Eimer aus und warten, bis es wieder regnet.

Diesmal regnet es mehrere Tage. Wenn es aufhört zu regnen, läuft jeder Eimer im Hof ​​über. Obwohl Sie ziemlich sicher sind, dass einige Eimer schneller gefüllt sind als andere, wissen Sie nicht, welche Eimer am schnellsten und welche zuletzt gefüllt sind. Sie müssen also die Eimer wieder herauswerfen und auf mehr Regen warten.

Beim dritten Versuch regnet es drei Stunden lang und hört dann auf zu regnen. Du gehst zum Hof ​​und inspizierst deine Eimer. Einige sind fast voll! Einige haben überhaupt kaum Wasser in sich! Die meisten haben unterschiedliche Wassermengen zwischen den beiden Extremen. Jetzt können Sie die Position jedes Eimers verwenden, um zu bestimmen, wie viel Regen auf jeden Bereich Ihres Gartens gefallen ist.

Der Grund, warum wir die Belichtung bei Digitalkameras ändern, ist der Versuch, genügend Licht zu sammeln, damit die hellsten Bereiche fast, aber nicht ganz gesättigt sind.Im Idealfall erfolgt dies, wenn sich die Kamera in der ISO-Basisempfindlichkeit befindet. Manchmal reicht das Licht dafür jedoch nicht aus. Selbst bei der größten verfügbaren Blende können wir nicht genug Licht in der längsten Zeit sammeln, in der wir es wagen, den Verschluss offen zu lassen (aufgrund der Bewegung unserer Motive). In diesem Fall passen wir die ISO-Einstellung in unserer Kamera so an, dass alle vom Sensor kommenden Werte mit einem Faktor multipliziert werden, der die höchsten Werte an einen Punkt bringt, an dem sie fast, aber nicht ganz gesättigt sind. Leider verstärken wir beim Verstärken des Signals (die Spannungen, die durch in Pixelwannen auftreffende Photonen erzeugt werden) auch das Rauschen (die zufälligen ungleichmäßigen Spannungen, die durch den Strom erzeugt werden, der zum Sammeln der Spannungen aus den einzelnen Pixelwannen verwendet wird). Dies führt zu einem niedrigeren Signal-Rausch-Verhältnis Dies verringert die Detailgenauigkeit, die wir aus den vom Sensor gesammelten Daten erzeugen können.

Es gibt andere technische Einschränkungen, die verhindern, dass Kameras eine "laufende Summe" der in verschiedenen Intervallen gesammelten Photonen aufrechterhalten, während der Verschluss geöffnet ist. Wirf genug Geld auf das Problem und einige dieser Einschränkungen können zumindest teilweise überwunden werden. Aber entweder müssten sich die Gesetze der Physik ändern, oder wir müssen die Art und Weise, wie Sensoren Photonen zählen, vollständig ändern, bevor andere dieser Einschränkungen überwunden werden können. Möglicherweise ersetzt die Technologie einiger oder aller dieser Geräte die Art und Weise, wie wir derzeit Bilder in sehr hoher Qualität aufnehmen, aber wir sind noch lange nicht in der Nähe.

Michael C
quelle
2
Es ist kein Zitat. Es ist meine eigene Illustration. Die Blockzitat-Formatierung wurde verwendet, um sie vom Rest der Antwort abzuheben. Ich habe mich dafür entschieden, weil ich der Meinung war, dass es unter den verfügbaren Formatierungsoptionen die beste Wahl war.
Michael C
1
Es ist zu beachten, dass wir möglicherweise kürzere Belichtungen von einer längeren Belichtung erfassen können, wenn wir Sensoren entwickeln, die wir schnell genug abfragen können - z. B. könnten wir eine Belichtung von 1 Sekunde verwenden, aber 1/250, 1/125, 1/60 erfassen. 1/30 usw. aus, indem der Sensor während dieser Zeit wiederholt ausgelesen wird und eine "laufende Summe" von Arten aufrechterhalten wird. Wir können das schon machen, aber es ist nicht sehr gut entwickelt und hat Grenzen, wie kurz eine Belichtung sein kann
Jon Story
1
Das Auslesen dauert bei hochauflösenden Sensoren zu lange. Und viele Schüsse bleiben nicht für eine Sekunde stehen. Manchmal ist 1/1000 nicht schnell genug.
Michael C
2
Das ist nichts weiter als eine verherrlichte Belichtungsreihe. Was schwierig ist, wenn Sie Weltklasse-Athleten mit mehr als 10 fps schießen. Mit den Breitengraden, die Rohdateien uns derzeit geben, sollte jeder Fotograf, der ihr Salz wert ist, in der Lage sein, gut genug zu belichten, um das gewünschte Ergebnis zu erzielen. Und denken Sie daran, dass bei einem Verschluss mit Fokusebene jeder Fernseher, der kürzer als die Synchronisationsgeschwindigkeit ist, immer noch die gleiche Zeit wie die Synchronisationsgeschwindigkeit benötigt, damit die beiden Vorhänge den Sensor passieren. Dann wird die Auslesezeit benötigt, bevor der Sensor für das nächste Bild gelöscht werden kann.
Michael C
2
Michael, das war eine fantastische Antwort. Vor allem mit der folgenden Diskussion. Ein paar Fragen als Follow-up - zuerst: "Idealerweise tritt dies bei der Kamera mit der Basis-ISO-Empfindlichkeit auf." Warum?
Wombat Pete
13

Wir haben bereits einige Technologien dafür. Unsere Bezeichnung für die Speicherung der Sensorwerte an jedem Belichtungspunkt lautet "Video", und Sie möchten ein optimales Standbild aus mehreren Videoframes rekonstruieren.

Eine Übersicht über die Microsoft-Forschungsarbeiten hierzu finden Sie hier: http://research.microsoft.com/en-us/um/redmond/groups/ivm/multiimagefusion/

Ein verfügbares Beispiel finden Sie in der Synthcam-App, mit der Sie Rauschen bei schlechten Lichtverhältnissen reduzieren können, indem Sie mit einer Telefonkamera aufgenommene Videobilder kombinieren: https://sites.google.com/site/marclevoy/

Für die alltägliche Fotografie ist dies noch ein langer Weg, aber es ist denkbar, dass zukünftige Kameras viele Bilder von hochauflösendem Video mit hoher Bildrate aufnehmen, damit der Fotograf das gewünschte Ergebnis erzielen kann, indem er es später auswählt und kombiniert.

Ende 2016 Update: Als ich die ursprüngliche Antwort schrieb, war dies ein Stück vom Markt entfernt. Ende 2016 scheint es viel näher. Marc Levoys "See In The Dark" -App integriert mehrere Videoframes mit Stabilisierung auf einem Consumer-Smartphone, um aus Mondlicht brauchbare Bilder zu erstellen. Siehe auch die Light L16- Kamera, die mehrere kleine Sensoren in einem Bild vereint.

Adrian Cox
quelle
1
Welche Art von fällt in die Kategorie "genug Geld an das Problem werfen". Stellen Sie sich vor, was 4.000 fps bei 50MP kosten würden!
Michael C
Ich habe vor ungefähr fünf Jahren mit 1000 fps gearbeitet und es wog ein paar kg. Derzeit habe ich eine 120-fps-Kamera in der Tasche. Dies kann in 5 bis 10 Jahren praktikabel sein. Sicherlich nicht für die Mainstream-Fotografie, und Sie können immer eine dunkle Situation finden, in der es einfach nicht genug Photonen gibt, mit denen Sie arbeiten können.
Adrian Cox
10

Die ursprüngliche Frage basiert auf einer falschen Annahme (über den Zustand des digitalen Sensors, der sich während der Belichtung nicht ändert), aber das Konzept steht im Zusammenhang mit der von Eric Fossum untersuchten Idee des Quanta Image Sensor (QIS) .

http://engineering.dartmouth.edu/research/advanced-image-sensors-and-camera-systems/

Das QIS ist eine revolutionäre Änderung in der Art und Weise, wie wir Bilder in einer Kamera erfassen, die in Dartmouth erfunden wird. Im QIS besteht das Ziel darin, jedes Photon zu zählen, das auf den Bildsensor trifft, und eine Auflösung von 1 Milliarde oder mehr spezialisierten Photoelementen (Jots) pro Sensor bereitzustellen und die resultierenden Jot-Bit-Ebenen hunderte oder tausende Male pro Sekunde auszulesen in Terabit / Sek. Daten.

Ein solches Gerät würde (unter Angabe der Frage)

Erinnern Sie sich an die Sensorwerte an jedem Belichtungspunkt

und mit dem vollständigen Datensatz könnten wir zum Beispiel die effektive Belichtungszeit nach der Aufnahme des "Fotos" "ändern".

Heutzutage kann dies durch Aufnehmen eines Videos und Kombinieren von Bildern im Nachhinein angenähert werden, um längere Belichtungszeiten zu simulieren (begrenzt durch Kameraleistung, Videomodusauflösung und Verschlusszeit, aber es zeigt die Idee).

Wenn das QIS wie versprochen funktioniert, würde es auch andere coole Funktionen einführen, wie eine bessere Leistung bei schlechten Lichtverhältnissen, einen vergrößerten Dynamikbereich, kein Aliasing, eine vollständig anpassbare Empfindlichkeit (z. B. filmartig), keine ISO-Einstellungen, eine anpassbare Auflösung gegenüber Rauschen

Aktuelle Ankündigung: http://phys.org/news/2015-09-breakthrough-photography.html

szulat
quelle
"Wenn das QIS wie versprochen funktioniert, würde es auch andere coole Funktionen einführen, wie eine bessere Leistung bei schlechten Lichtverhältnissen, einen erhöhten Dynamikbereich, kein Aliasing, eine vollständig anpassbare Empfindlichkeit (z. B. filmartig), keine ISO-Einstellungen, eine anpassbare Auflösung gegenüber Rauschen." was ich dachte, ist genau das, warum ich die Frage überhaupt gestellt habe!
Wombat Pete
1
Terabit pro Sekunde? Großzügig ist das 1 GB für eine Belichtung von 1/125 Sekunden oder 2 GB für eine Belichtung von 1/60 Sekunden. (Sie denken, dass eine 25-50 MB RAW-Datei von einer einigermaßen hochwertigen DSLR, meist unabhängig von der Belichtungszeit, groß ist?) Bei einer Schreibgeschwindigkeit von 1000 MB / s, was ziemlich weit oben liegt, sind Sie ungefähr 100x zu langsam . Ich denke , auf diesen Ebenen, die Lagerung ist eine sehr reale Überlegung.
einen Lebenslauf vom
2

Der Film verändert sich im Laufe der Zeit, in der er belichtet wird. Ein digitaler Sensor tut dies jedoch nicht. es liest nur Daten.

Das hängt wirklich vom Sensortyp ab. Die Art von CMOS-Sensoren, die heutzutage in DSLRs verwendet werden, akkumulieren im Laufe der Zeit eine elektrische Ladung in jedem Pixel, so dass sie sich im Laufe der Zeit genau wie Filme ändern. Wenn sie nicht so funktionieren würden, würde das Bild nur so lange existieren, wie der Verschluss geöffnet ist. Auf diese Weise arbeiten auch CCD-Sensoren (die andere gebräuchliche Technologie für Bildsensoren in Kameras), die mit der Zeit Licht ansammeln.

Gibt es einen Grund, warum die Kamera nicht dazu gebracht werden konnte, sich an die Sensorwerte an jedem Belichtungspunkt zu "erinnern"?

Genau das macht die Kamera, wenn sie ein Bild aufzeichnet. Ich denke, Sie meinen damit, dass Sie, wenn der Sensor die momentane Lichtintensität ablesen könnte, die Belichtung danach auf einen beliebigen Wert einstellen könnten. Wie oben erläutert, funktionieren die meisten Bildsensoren nicht so. Auf der anderen Seite, wir können und oft tun Belichtung ziemlich viel in der Nachbearbeitung anpassen.

Wenn Datenspeicherung kein Thema wäre, gibt es einen Grund, warum dies nicht die Norm sein könnte, zumindest für professionelle Fotografie und Kunstfotografie?

Soweit es darum geht, die Daten vom Sensor zu "merken", ist dies für viele Fotografen die Norm. Bei den meisten Kameras können Sie Bilder im "RAW" -Format aufnehmen, und dies sind so ziemlich die Daten, die vom Sensor gelesen werden, plus ein bisschen mehr Daten über die Kameraeinstellungen zu der Zeit. RAW-Bilder beanspruchen viel mehr Platz als andere Formate wie JPEG, geben dem Fotografen jedoch die Freiheit, die Daten später neu zu interpretieren, sodass Sie Einstellungen wie Farbtemperatur und Weißabgleich bei der Nachbearbeitung problemlos ändern können.

Caleb
quelle
2
Ich würde sagen, Ihre Antwort ist die einzige, die den entscheidenden Punkt enthält: Sensoren liefern keine kontinuierliche Anzeige, die für die vom OP gewünschten Ergebnisse erforderlich wäre. Wenn man eine kontinuierliche Belichtung wünscht, benötigt man eine kontinuierliche Datenausgabe in sehr kleinen Zeitschritten (kleiner als "Live View" und ähnlich).
DetlevCM
2
@DetlevCM Hast du meine Antwort sorgfältig gelesen? Sie enthält diese Informationen sowohl im ersten als auch im letzten Absatz.
Michael C
1
@MichaelClark In der Tat - es enthält es, wenn ich es jetzt erneut lese (keine Änderungen aufgezeichnet). Ich schätze, es ist in Lärm
versunken,
Ich habe es bearbeitet, um es noch deutlicher zu machen.
Michael C
"Wenn man eine kontinuierliche Belichtung wünscht, benötigt man eine kontinuierliche Datenausgabe in sehr kleinen Zeitschritten (kleiner als" Live View "und ähnlich)" ... was ist der Begriff "verherrlichte Belichtungsreihe" in der obigen Diskussion, oder? Die neue Frage, wie ich dies verstehe, betrifft die Praktikabilität / Verfügbarkeit dieser Art von Dingen.
Wombat Pete
1

Andere haben bereits erklärt, warum dies technisch nicht funktioniert. Ich möchte herausfinden, warum es praktisch nicht funktioniert .

Wenn Datenspeicherung kein Thema wäre, gibt es einen Grund, warum dies nicht die Norm sein könnte, zumindest für professionelle Fotografie und Kunstfotografie?

Berücksichtigen Sie die Stärke der verschiedenen Lichtverhältnisse, von denen wir möglicherweise Fotos machen möchten. Selbst wenn Sie Extreme wie die Astrofotografie ignorieren (bei der Sie häufig kleine Lichtflecken fotografieren, die von fast vollständigem Schwarz umgeben sind), haben Sie immer noch terrestrische Fotografie am Abend oder in der Nacht und hell erleuchtete schneebedeckte Winterlandschaften. Ich werde die beiden letzteren als Beispiele verwenden.

Außerdem gehe ich davon aus, dass wir den Sensor bis zur vollständigen Sättigung aussetzen müssen, um eine gewünschte Belichtung genau nachzubilden .

Außerdem gehe ich davon aus, dass wir die Sensorwerte zerstörungsfrei auslesen können. (Dies ist wahrscheinlich eines der Probleme, die in die Kategorie "genug Geld auf das Problem werfen und es könnte lösbar sein" fallen.)

Im Falle der Nachtfotografie müssten wir den Sensor sehr lange belichten , um alle Pixel zu sättigen, was bedeutet, dass es absurd lange dauern wird, bis ein Foto aufgenommen wird, unabhängig davon, wovon wir eigentlich ein Bild haben möchten . Das klassische Touristenbild von Tänzern in einer Bar im Freien wird fast unmöglich, weil Sie vielleicht ein paar davon während eines ganzen Abends aufnehmen können. Nicht gut. Wir können uns also nicht der Sättigung aussetzen, zumindest nicht wahllos. (Das Belichten eines bestimmten Prozentsatzes gesättigter Pixel ist gleichermaßen nutzlos, aber aus verschiedenen Gründen. Versuchen Sie, die Belichtung genau richtig einzustellen, wenn Sie ein Foto von einem Kamin mit einem brennenden Feuer aufnehmen. Das ist fast unmöglich, egal wie sehr Sie es versuchen, manche Pixel werden überbelichtet oder riesige Bildbereiche werden schrecklich unterbelichtet.)

Wenn Sie eine hell erleuchtete, schneebedeckte Landschaft fotografieren, z. B. eine Winterperspektive, wenn tagsüber die Sonne scheint, ist die Belichtung, die mit dem automatischen Belichtungssystem der Kamera angestrebt wird ("18% Grau"), absolut unzureichend. Aus diesem Grund sehen Sie häufig Fotos von dunklem Schnee, auf denen der Schnee eher hellgrau als weiß erscheint. Aus diesem Grund verwenden wir häufig eine positive Belichtungskorrektureinstellung, die dazu führt, dass der Schnee als nahezu gesättigtes Weiß belichtet wird. Dies bedeutet jedoch, dass wir uns nicht auf das AE-System der Kamera verlassen können, um zu bestimmen, wann die Belichtung beendet werden soll. Andernfalls werden solche Bilder immer unterbelichtet .

Mit anderen Worten, die Exposition gegenüber einer vollständigen Sättigung ist in vielen Fällen unpraktisch, und die Exposition, das AE-System glücklich zu machen, ist in vielen Fällen unzureichend. Dies bedeutet, dass der Fotograf noch eine Auswahl treffen muss, und zu diesem Zeitpunkt sind wir mindestens genauso gut dran, bei dem zu bleiben, was wir haben, und Fotografen sind daran gewöhnt, die AE-Systeme zu verbessern und dem Fotografen die Arbeit zu erleichtern ( einfacher?) Zugang zu den Einstellungen für die Belichtungskorrektur. Indem wir den praktisch nutzbaren Dynamikbereich des Sensors erhöhen, können wir (noch) mehr Spielraum für Belichtungsänderungen bei der Nachbearbeitung einräumen. Die ursprünglichen digitalen Spiegelreflexkameras waren entsetzlich teuer, aber in dieser Hinsicht wirklich entsetzlich im Vergleich zu den heutigen Einsteigermodellen.

All dies kann vollständig im Rahmen dessen getan werden, was wir bereits haben. Dies bedeutet nicht, dass es einfach ist , den nutzbaren Dynamikbereich des Sensors dramatisch zu verbessern , aber es ist wahrscheinlich viel einfacher als das, was Sie vorschlagen, und es ist ein Problem, an dem Anbieter Erfahrung haben.

Fast per definitionem wissen Profis, wie man die Ausrüstung ihres Fachs einsetzt. Es ist nicht wirklich anders, wenn sie Fotografen oder Space-Shuttle-Piloten sind . Insbesondere wenn dies ohne Informationsüberflutung möglich ist, ist es in der Regel besser, dem Benutzer die volle Kontrolle über die professionelle Ausrüstung zu geben. Meiner Meinung nach sind aktuelle High-End-DSLRs ziemlich gut darin, den Sweet Spot in diesem Bereich zu treffen.

ein CVn
quelle
1
Vielen Dank, dass Sie auf die praktischen Probleme mit dieser Idee hingewiesen haben . Ich stelle mir eine Kamera vor, die geschickt und unabhängig jeden Pixel mittelt, um eine ausgeglichene Belichtung zu erzielen, die eher graue Bilder erzeugt.
HamishKL
1

Vereinfachen wir das Problem, um zu verstehen, warum wir immer Kompromisse eingehen müssen.

Lassen Sie uns die Kamera erfinden, die Sie wollen, aber mit nur einem monochromen Pixel. Es muss in der Lage sein, den Prozessor zuverlässig über den Empfang eines einzelnen Photons zu informieren. Es muss auch in der Lage sein, den Prozessor über den Empfang von praktisch unzähligen unendlichen Photonen zu informieren.

Der erste Fall in einer Situation, in der es kein Licht gibt. Die zweite bei nur mäßigem Lichteinfall.

Das Hauptproblem ist, dass wir einfach nicht die Technologie haben, um einen Sensor mit einem so großen Dynamikbereich zu entwickeln. Wir müssen immer Kompromisse eingehen, und im Moment gehen wir Kompromisse ein, indem wir einen höheren Bereich auswählen, in dem der Sensor nahezu unendliche Photonen aufnehmen kann, und uns einen Messwert geben, der darauf hindeutet, dass eine relative Lichtmenge auf den Sensor trifft. Es zählt sie überhaupt nicht, aber es verhält sich wie unsere Augen - sie geben lediglich eine Ausgabe ab, die relativ zu der Menge der Photonen ist, die sie treffen, ohne zu versuchen, Photonen zu zählen.

Dies wird durch die Tatsache weiter erschwert, dass dies im Laufe der Zeit gesammelt wird.

Ein idealer Sensor gleicht eigentlich eher einem Geigerzähler. Er misst die Zeit zwischen den Photonen, um die auf den Sensor fallende Lichtmenge nahezu augenblicklich zu messen, vorausgesetzt, die Photonen haben einen relativ gleichmäßigen Abstand (was jedoch nicht zutrifft) ist eine bequeme Annahme, und warum Geigerzähler im Laufe der Zeit genau wie Kameras gemittelt werden).

Quantensensoren hätten im Wesentlichen das gleiche Problem. Sicher, sie können ein einzelnes Photon wahrnehmen, aber irgendwann kommen sie so schnell, dass man die Zeit zwischen ihnen einfach nicht messen oder sogar zählen kann, wie viele pro Belichtungsperiode kommen.

Wir müssen also diesen Kompromiss eingehen, indem wir entweder mehrere Bilder mehrerer Belichtungen aufnehmen oder mehrere Bilder derselben hohen Belichtung zusammenfügen, um die Bereiche mit schlechten Lichtverhältnissen herauszufiltern, oder das einfallende Licht mit verschiedenen Sensoren unterschiedlicher Dynamik in zwei oder mehr Pfade aufteilen Entfernungssensoren oder Sensoren, die Pixel gruppieren oder Lichtsensoren stapeln können, oder oder oder - es gibt buchstäblich Tausende von Möglichkeiten, wie Fotografen dieses Grundproblem im Laufe der Jahrzehnte mit einer Vielzahl von Medien bewältigen konnten.

Es ist eine physikalische Einschränkung, die wahrscheinlich nicht überwunden wird. Wir werden niemals eine Kamera * ohne Eingaben des Fotografen haben, mit der alle Entscheidungen in der Nachbearbeitung getroffen werden können.

* Wenn Sie die Definition der Kamera ändern, können Sie natürlich mit den Ergebnissen anderer Prozesse zufrieden sein, dies ist jedoch weitgehend subjektiv. Die Realität ist, dass, wenn Sie eine Szene mit Ihrer Kamera abbilden, diese dann einer Person zeigen und anschließend das von Ihnen aufgenommene Bild, diese aufgrund der inhärenten Unterschiede zwischen ihren Augen, Ihrem Bildsensor und dem Druckprozess Unterschiede wahrnimmt das Bild. Beim Fotografieren geht es sowohl um Interpretation und Kunst als auch darum, Licht einzufangen. Ein fanatischer Fokus auf die "perfekte Kamera" ist daher wahrscheinlich nicht sehr nützlich.

Adam Davis
quelle
Wenn Sie versuchen, eine nahezu unendliche Anzahl von Photonen zu zählen, sind Sie bereits tot ;-) (verbrannt von der starken Lichtquelle), in anderen Fällen können wir immer eine Technologie erfinden, um dies zu handhaben, zum Beispiel -> dpreview.com/ articles / 5923827506 /…
Dienstag,