Ich bin nicht sicher, wie ungebildet diese Frage ist, aber ich bin am Lernen interessiert. Vielen Dank im Voraus für Ihre Nachsicht.
Der Film verändert sich im Laufe der Zeit, in der er belichtet wird. Ein digitaler Sensor tut dies jedoch nicht. es liest nur Daten. Gibt es einen Grund, warum die Kamera nicht dazu gebracht werden konnte, sich an die Sensorwerte an jedem Belichtungspunkt zu "erinnern"? Es sind nur Daten. Es kann eine Menge Daten geben, aber es gibt Zeiten, in denen man das tun möchte, nein? Mehr Flexibilität bei der Nachbearbeitung.
Wenn Datenspeicherung kein Thema wäre, gibt es einen Grund, warum dies nicht die Norm sein könnte, zumindest für professionelle Fotografie und Kunstfotografie?
Antworten:
Ein digitaler Sensor ist nicht unbedingt als "Daten lesen" zu bezeichnen. Ein viel besserer Weg , es zu beschreiben ist „Sammeln von Photonen“, die dann in Daten umgewandelt , indem die mikroskopisch kleinen elektrischen Ladungen messen sie produzieren , sobald die Sammelperiode ist vorbei . Sie sind nicht in der Lage, den sich ändernden Zustand jedes Pixels kontinuierlich aufzuzeichnen, während sie Licht sammeln. Und je nachdem, wie wenig oder wie viel Licht auf den Sensor fällt, kann es lange dauern, bis genügend Photonen auf den Sensor treffen, bevor mehr als zufällige Daten generiert werden. Andererseits können sich bei sehr hellem Licht manchmal alle Pixelvertiefungen so schnell füllen, dass zusätzliche Photonen, die auf den Sensor fallen, verloren gehen.
Im ersten Szenario werden nicht genügend Photonen gesammelt, um ein erkennbares Muster durch das "Rauschen" zu erzeugen, das durch die durch den Sensor fließende Energie erzeugt wird, die zum Sammeln der Spannungen verwendet wird, die durch die in die Pixelwannen fallenden Photonen erzeugt werden. Somit werden keine nutzbaren Informationen gesammelt. Ihr gesamtes Foto ist dunkel mit zufälligen Farb- und Lichtflecken.
Im zweiten Szenario werden so viele Photonen gesammelt, dass jedes Pixel mit demselben Maximalwert ausgelesen wird, der als vollständige Sättigung bezeichnet wird, und da jedes Pixel im Bild denselben Wert hat, wurden keine verwendbaren Informationen beibehalten. Ihr gesamtes Foto ist hellweiß.
Erst wenn genügend Photonen auf einen Sensor treffen, haben die Bereiche mit mehr Photonen pro Zeiteinheit einen höheren Auslesewert als Bereiche mit weniger Photonen pro Zeiteinheit. Erst dann hat der Sensor aussagekräftige Informationen gesammelt, die Bereiche unterschiedlicher Helligkeit unterscheiden können.
Der Grund, warum wir die Belichtung bei Digitalkameras ändern, ist der Versuch, genügend Licht zu sammeln, damit die hellsten Bereiche fast, aber nicht ganz gesättigt sind.Im Idealfall erfolgt dies, wenn sich die Kamera in der ISO-Basisempfindlichkeit befindet. Manchmal reicht das Licht dafür jedoch nicht aus. Selbst bei der größten verfügbaren Blende können wir nicht genug Licht in der längsten Zeit sammeln, in der wir es wagen, den Verschluss offen zu lassen (aufgrund der Bewegung unserer Motive). In diesem Fall passen wir die ISO-Einstellung in unserer Kamera so an, dass alle vom Sensor kommenden Werte mit einem Faktor multipliziert werden, der die höchsten Werte an einen Punkt bringt, an dem sie fast, aber nicht ganz gesättigt sind. Leider verstärken wir beim Verstärken des Signals (die Spannungen, die durch in Pixelwannen auftreffende Photonen erzeugt werden) auch das Rauschen (die zufälligen ungleichmäßigen Spannungen, die durch den Strom erzeugt werden, der zum Sammeln der Spannungen aus den einzelnen Pixelwannen verwendet wird). Dies führt zu einem niedrigeren Signal-Rausch-Verhältnis Dies verringert die Detailgenauigkeit, die wir aus den vom Sensor gesammelten Daten erzeugen können.
Es gibt andere technische Einschränkungen, die verhindern, dass Kameras eine "laufende Summe" der in verschiedenen Intervallen gesammelten Photonen aufrechterhalten, während der Verschluss geöffnet ist. Wirf genug Geld auf das Problem und einige dieser Einschränkungen können zumindest teilweise überwunden werden. Aber entweder müssten sich die Gesetze der Physik ändern, oder wir müssen die Art und Weise, wie Sensoren Photonen zählen, vollständig ändern, bevor andere dieser Einschränkungen überwunden werden können. Möglicherweise ersetzt die Technologie einiger oder aller dieser Geräte die Art und Weise, wie wir derzeit Bilder in sehr hoher Qualität aufnehmen, aber wir sind noch lange nicht in der Nähe.
quelle
Wir haben bereits einige Technologien dafür. Unsere Bezeichnung für die Speicherung der Sensorwerte an jedem Belichtungspunkt lautet "Video", und Sie möchten ein optimales Standbild aus mehreren Videoframes rekonstruieren.
Eine Übersicht über die Microsoft-Forschungsarbeiten hierzu finden Sie hier: http://research.microsoft.com/en-us/um/redmond/groups/ivm/multiimagefusion/
Ein verfügbares Beispiel finden Sie in der Synthcam-App, mit der Sie Rauschen bei schlechten Lichtverhältnissen reduzieren können, indem Sie mit einer Telefonkamera aufgenommene Videobilder kombinieren: https://sites.google.com/site/marclevoy/
Für die alltägliche Fotografie ist dies noch ein langer Weg, aber es ist denkbar, dass zukünftige Kameras viele Bilder von hochauflösendem Video mit hoher Bildrate aufnehmen, damit der Fotograf das gewünschte Ergebnis erzielen kann, indem er es später auswählt und kombiniert.
Ende 2016 Update: Als ich die ursprüngliche Antwort schrieb, war dies ein Stück vom Markt entfernt. Ende 2016 scheint es viel näher. Marc Levoys "See In The Dark" -App integriert mehrere Videoframes mit Stabilisierung auf einem Consumer-Smartphone, um aus Mondlicht brauchbare Bilder zu erstellen. Siehe auch die Light L16- Kamera, die mehrere kleine Sensoren in einem Bild vereint.
quelle
Die ursprüngliche Frage basiert auf einer falschen Annahme (über den Zustand des digitalen Sensors, der sich während der Belichtung nicht ändert), aber das Konzept steht im Zusammenhang mit der von Eric Fossum untersuchten Idee des Quanta Image Sensor (QIS) .
http://engineering.dartmouth.edu/research/advanced-image-sensors-and-camera-systems/
Ein solches Gerät würde (unter Angabe der Frage)
und mit dem vollständigen Datensatz könnten wir zum Beispiel die effektive Belichtungszeit nach der Aufnahme des "Fotos" "ändern".
Heutzutage kann dies durch Aufnehmen eines Videos und Kombinieren von Bildern im Nachhinein angenähert werden, um längere Belichtungszeiten zu simulieren (begrenzt durch Kameraleistung, Videomodusauflösung und Verschlusszeit, aber es zeigt die Idee).
Wenn das QIS wie versprochen funktioniert, würde es auch andere coole Funktionen einführen, wie eine bessere Leistung bei schlechten Lichtverhältnissen, einen vergrößerten Dynamikbereich, kein Aliasing, eine vollständig anpassbare Empfindlichkeit (z. B. filmartig), keine ISO-Einstellungen, eine anpassbare Auflösung gegenüber Rauschen
Aktuelle Ankündigung: http://phys.org/news/2015-09-breakthrough-photography.html
quelle
Das hängt wirklich vom Sensortyp ab. Die Art von CMOS-Sensoren, die heutzutage in DSLRs verwendet werden, akkumulieren im Laufe der Zeit eine elektrische Ladung in jedem Pixel, so dass sie sich im Laufe der Zeit genau wie Filme ändern. Wenn sie nicht so funktionieren würden, würde das Bild nur so lange existieren, wie der Verschluss geöffnet ist. Auf diese Weise arbeiten auch CCD-Sensoren (die andere gebräuchliche Technologie für Bildsensoren in Kameras), die mit der Zeit Licht ansammeln.
Genau das macht die Kamera, wenn sie ein Bild aufzeichnet. Ich denke, Sie meinen damit, dass Sie, wenn der Sensor die momentane Lichtintensität ablesen könnte, die Belichtung danach auf einen beliebigen Wert einstellen könnten. Wie oben erläutert, funktionieren die meisten Bildsensoren nicht so. Auf der anderen Seite, wir können und oft tun Belichtung ziemlich viel in der Nachbearbeitung anpassen.
Soweit es darum geht, die Daten vom Sensor zu "merken", ist dies für viele Fotografen die Norm. Bei den meisten Kameras können Sie Bilder im "RAW" -Format aufnehmen, und dies sind so ziemlich die Daten, die vom Sensor gelesen werden, plus ein bisschen mehr Daten über die Kameraeinstellungen zu der Zeit. RAW-Bilder beanspruchen viel mehr Platz als andere Formate wie JPEG, geben dem Fotografen jedoch die Freiheit, die Daten später neu zu interpretieren, sodass Sie Einstellungen wie Farbtemperatur und Weißabgleich bei der Nachbearbeitung problemlos ändern können.
quelle
Andere haben bereits erklärt, warum dies technisch nicht funktioniert. Ich möchte herausfinden, warum es praktisch nicht funktioniert .
Berücksichtigen Sie die Stärke der verschiedenen Lichtverhältnisse, von denen wir möglicherweise Fotos machen möchten. Selbst wenn Sie Extreme wie die Astrofotografie ignorieren (bei der Sie häufig kleine Lichtflecken fotografieren, die von fast vollständigem Schwarz umgeben sind), haben Sie immer noch terrestrische Fotografie am Abend oder in der Nacht und hell erleuchtete schneebedeckte Winterlandschaften. Ich werde die beiden letzteren als Beispiele verwenden.
Außerdem gehe ich davon aus, dass wir den Sensor bis zur vollständigen Sättigung aussetzen müssen, um eine gewünschte Belichtung genau nachzubilden .
Außerdem gehe ich davon aus, dass wir die Sensorwerte zerstörungsfrei auslesen können. (Dies ist wahrscheinlich eines der Probleme, die in die Kategorie "genug Geld auf das Problem werfen und es könnte lösbar sein" fallen.)
Im Falle der Nachtfotografie müssten wir den Sensor sehr lange belichten , um alle Pixel zu sättigen, was bedeutet, dass es absurd lange dauern wird, bis ein Foto aufgenommen wird, unabhängig davon, wovon wir eigentlich ein Bild haben möchten . Das klassische Touristenbild von Tänzern in einer Bar im Freien wird fast unmöglich, weil Sie vielleicht ein paar davon während eines ganzen Abends aufnehmen können. Nicht gut. Wir können uns also nicht der Sättigung aussetzen, zumindest nicht wahllos. (Das Belichten eines bestimmten Prozentsatzes gesättigter Pixel ist gleichermaßen nutzlos, aber aus verschiedenen Gründen. Versuchen Sie, die Belichtung genau richtig einzustellen, wenn Sie ein Foto von einem Kamin mit einem brennenden Feuer aufnehmen. Das ist fast unmöglich, egal wie sehr Sie es versuchen, manche Pixel werden überbelichtet oder riesige Bildbereiche werden schrecklich unterbelichtet.)
Wenn Sie eine hell erleuchtete, schneebedeckte Landschaft fotografieren, z. B. eine Winterperspektive, wenn tagsüber die Sonne scheint, ist die Belichtung, die mit dem automatischen Belichtungssystem der Kamera angestrebt wird ("18% Grau"), absolut unzureichend. Aus diesem Grund sehen Sie häufig Fotos von dunklem Schnee, auf denen der Schnee eher hellgrau als weiß erscheint. Aus diesem Grund verwenden wir häufig eine positive Belichtungskorrektureinstellung, die dazu führt, dass der Schnee als nahezu gesättigtes Weiß belichtet wird. Dies bedeutet jedoch, dass wir uns nicht auf das AE-System der Kamera verlassen können, um zu bestimmen, wann die Belichtung beendet werden soll. Andernfalls werden solche Bilder immer unterbelichtet .
Mit anderen Worten, die Exposition gegenüber einer vollständigen Sättigung ist in vielen Fällen unpraktisch, und die Exposition, das AE-System glücklich zu machen, ist in vielen Fällen unzureichend. Dies bedeutet, dass der Fotograf noch eine Auswahl treffen muss, und zu diesem Zeitpunkt sind wir mindestens genauso gut dran, bei dem zu bleiben, was wir haben, und Fotografen sind daran gewöhnt, die AE-Systeme zu verbessern und dem Fotografen die Arbeit zu erleichtern ( einfacher?) Zugang zu den Einstellungen für die Belichtungskorrektur. Indem wir den praktisch nutzbaren Dynamikbereich des Sensors erhöhen, können wir (noch) mehr Spielraum für Belichtungsänderungen bei der Nachbearbeitung einräumen. Die ursprünglichen digitalen Spiegelreflexkameras waren entsetzlich teuer, aber in dieser Hinsicht wirklich entsetzlich im Vergleich zu den heutigen Einsteigermodellen.
All dies kann vollständig im Rahmen dessen getan werden, was wir bereits haben. Dies bedeutet nicht, dass es einfach ist , den nutzbaren Dynamikbereich des Sensors dramatisch zu verbessern , aber es ist wahrscheinlich viel einfacher als das, was Sie vorschlagen, und es ist ein Problem, an dem Anbieter Erfahrung haben.
Fast per definitionem wissen Profis, wie man die Ausrüstung ihres Fachs einsetzt. Es ist nicht wirklich anders, wenn sie Fotografen oder Space-Shuttle-Piloten sind . Insbesondere wenn dies ohne Informationsüberflutung möglich ist, ist es in der Regel besser, dem Benutzer die volle Kontrolle über die professionelle Ausrüstung zu geben. Meiner Meinung nach sind aktuelle High-End-DSLRs ziemlich gut darin, den Sweet Spot in diesem Bereich zu treffen.
quelle
Vereinfachen wir das Problem, um zu verstehen, warum wir immer Kompromisse eingehen müssen.
Lassen Sie uns die Kamera erfinden, die Sie wollen, aber mit nur einem monochromen Pixel. Es muss in der Lage sein, den Prozessor zuverlässig über den Empfang eines einzelnen Photons zu informieren. Es muss auch in der Lage sein, den Prozessor über den Empfang von praktisch unzähligen unendlichen Photonen zu informieren.
Der erste Fall in einer Situation, in der es kein Licht gibt. Die zweite bei nur mäßigem Lichteinfall.
Das Hauptproblem ist, dass wir einfach nicht die Technologie haben, um einen Sensor mit einem so großen Dynamikbereich zu entwickeln. Wir müssen immer Kompromisse eingehen, und im Moment gehen wir Kompromisse ein, indem wir einen höheren Bereich auswählen, in dem der Sensor nahezu unendliche Photonen aufnehmen kann, und uns einen Messwert geben, der darauf hindeutet, dass eine relative Lichtmenge auf den Sensor trifft. Es zählt sie überhaupt nicht, aber es verhält sich wie unsere Augen - sie geben lediglich eine Ausgabe ab, die relativ zu der Menge der Photonen ist, die sie treffen, ohne zu versuchen, Photonen zu zählen.
Dies wird durch die Tatsache weiter erschwert, dass dies im Laufe der Zeit gesammelt wird.
Ein idealer Sensor gleicht eigentlich eher einem Geigerzähler. Er misst die Zeit zwischen den Photonen, um die auf den Sensor fallende Lichtmenge nahezu augenblicklich zu messen, vorausgesetzt, die Photonen haben einen relativ gleichmäßigen Abstand (was jedoch nicht zutrifft) ist eine bequeme Annahme, und warum Geigerzähler im Laufe der Zeit genau wie Kameras gemittelt werden).
Quantensensoren hätten im Wesentlichen das gleiche Problem. Sicher, sie können ein einzelnes Photon wahrnehmen, aber irgendwann kommen sie so schnell, dass man die Zeit zwischen ihnen einfach nicht messen oder sogar zählen kann, wie viele pro Belichtungsperiode kommen.
Wir müssen also diesen Kompromiss eingehen, indem wir entweder mehrere Bilder mehrerer Belichtungen aufnehmen oder mehrere Bilder derselben hohen Belichtung zusammenfügen, um die Bereiche mit schlechten Lichtverhältnissen herauszufiltern, oder das einfallende Licht mit verschiedenen Sensoren unterschiedlicher Dynamik in zwei oder mehr Pfade aufteilen Entfernungssensoren oder Sensoren, die Pixel gruppieren oder Lichtsensoren stapeln können, oder oder oder - es gibt buchstäblich Tausende von Möglichkeiten, wie Fotografen dieses Grundproblem im Laufe der Jahrzehnte mit einer Vielzahl von Medien bewältigen konnten.
Es ist eine physikalische Einschränkung, die wahrscheinlich nicht überwunden wird. Wir werden niemals eine Kamera * ohne Eingaben des Fotografen haben, mit der alle Entscheidungen in der Nachbearbeitung getroffen werden können.
* Wenn Sie die Definition der Kamera ändern, können Sie natürlich mit den Ergebnissen anderer Prozesse zufrieden sein, dies ist jedoch weitgehend subjektiv. Die Realität ist, dass, wenn Sie eine Szene mit Ihrer Kamera abbilden, diese dann einer Person zeigen und anschließend das von Ihnen aufgenommene Bild, diese aufgrund der inhärenten Unterschiede zwischen ihren Augen, Ihrem Bildsensor und dem Druckprozess Unterschiede wahrnimmt das Bild. Beim Fotografieren geht es sowohl um Interpretation und Kunst als auch darum, Licht einzufangen. Ein fanatischer Fokus auf die "perfekte Kamera" ist daher wahrscheinlich nicht sehr nützlich.
quelle