Warum können Kamerasensoren nicht so funktionieren, wie es das menschliche Auge kann? Was ich meine ist, warum muss ein bestimmter Teil des Bildes über- / unterbelichtet sein, wenn wir dunkle und helle Bereiche beim Aufnehmen eines Fotos ausgleichen und die Einstellungen für Blende und Verschlusszeit festlegen.
Ich verstehe, dass der Lichteinfall von Blende und Verschlusszeit abhängt, aber da DSLRs digital sind, kann es keine Technologie geben, die es ermöglicht, dass jede Sensorzelle ihre eigene Messung verwendet und daher nicht alle der gleichen Menge ausgesetzt werden Licht, aber abhängig von der Belichtungsmessung, würde eine CPU der Kamera bestimmte Zellen abschalten, um sie nicht zu überbelichten.
Ich hoffe, ich sage keinen Unsinn. Es scheint mir eine plausible Idee zu sein.
Antworten:
Wer entscheidet, welche Pixel wie viel Gewinn bekommen? Vieles, was im menschlichen visuellen System vor sich geht, geschieht im Kortex, nicht im Auge, und hängt davon ab, was wir aufgrund einer Kombination aus intellektueller Entscheidung und dem (etwas überschreibbaren) instinktiven Streben nach Selbsterhaltung für wichtig halten . Während es in gewissem Sinne wahr ist, dass wir sehen, was da ist, ist es in gleichem Sinne wahr, dass wir sehen, was wir sehen wollen (oder müssen).
Es wäre fast soweitEs ist trivial, einen Sensor mit relativ geringer Pixeldichte mit großen Fotoseiten zu erstellen, die einen enormen Dynamikbereich ermöglichen, und (unter der Annahme einer CCD-Technologie, da die aktuelle CMOS-Sensortechnologie nicht auf diese Weise funktionieren kann) zusätzlich einen elektronischen Verschluss pro Pixel der mechanische Verschluss. Also, was würde dir das bringen? Ein flaches Bild mit viel Bittiefe und sehr geringem lokalen Kontrast (wenn die gesamte Bittiefe unverändert für die Anzeige oder den Druck konvertiert wird) sowie eine Anzahl von Pixeln, die durch die Sensorsättigung fast, aber nicht vollständig abgeschnitten werden ( obwohl sie tatsächlich durch die begrenzende Wirkung des elektronischen Verschlusses kurz vor dem Sättigungspunkt abgeschnitten werden). Nehmen wir zum Zwecke der Argumentation an, dass dieser Sensor und der zugehörige Computer die Schnittdaten aufzeichnen könnten (der Grund, warum die Aufzeichnung bei diesem Gefühl gestoppt wurde, Dies könnte so einfach sein, wie die tatsächliche Expositionsdauer an diesem Ort aufzuzeichnen. Das würde es der Elektronik der Kamera ermöglichen, die Zahlen zu rekonstruieren, wenn die Fotoseite bis zum Schlusspfiff im Spiel hätte bleiben können. Jetzt haben wir ein noch flacheres Bild mit größerer Bittiefe. Und wo ziehst du die Grenze? 32 Bits? 64?
Jetzt kommt der schwierige Teil - die Umwandlung dieser flachen Bilddaten mit hohem Dynamikbereich in ein überzeugendes Foto. Der einfachste Ansatz besteht darin, die acht Bits (oder was auch immer die Ausgabebittiefe sein würde) zu nehmen, die das primäre gemessene Bild darstellen, und den Rest wegzuwerfen. Es wäre wahrscheinlich nicht viel schwieriger, die Daten an eine S-Kurve anzupassen und die extremen Schatten und / oder Lichter zu komprimieren - was mehr oder weniger dem entspricht, was die erweiterten Einstellungen für den Dynamikbereich bei neueren Kameras bereits bewirken. Es sind jedoch nur so viele Ausgabebits pro Pixel verfügbar, und die meisten erweiterten Hervorhebungswerte werden auf Weiß aufgerundet (oder mindestens eine Mischung aus 254 und 255). Sie haben also sehr wenig gewonnen, indem Sie das System dramatisch kompliziert haben.
Es gibt jedoch noch eine offene Option - die selektive Bereichszuordnung. Warum nicht den Himmel oder nur die Wolken an diesem Himmel in den Hintergrund bringen, um Details beizubehalten und gleichzeitig den gewünschten Kontrast im Vordergrund beizubehalten? Hier lebt das schwierige Problem. Was ist wichtig? Sollte die Kamera für Sie entscheiden? Wenn die Kamera entscheidet, dann haben wir einen großen Fortschritt in der Bildverarbeitung und der künstlichen Intelligenz, um uns zuerst zu bewegen. Wenn nicht, möchten Sie dann wirklich für jedes Bild, das Sie aufnehmen, genau diese Entscheidung nach der Aufnahme treffen? Ja, ich weiß, dass es einige Fototechniker geben wird, die wirklich so aktiv sein wollen, aber können wir akzeptieren, dass es sich um einen pathologischen Zustand handelt und dass Profis, die sich für die Bearbeitungszeit interessieren, und die große Mehrheit der Verbraucher da sind nicht so?
Sie benötigen also einen neuen Sensor, eine erheblich kompliziertere Elektronik rund um den Sensor, eine riesige Bilddatei für projizierte Rohdaten (was größere Karten und längere Schreibzeiten / langsamere Bildraten erfordert), um Daten zu sammeln, die am häufigsten weggeworfen werden von der Zeit, so dass Sie gelegentlich einmalige HDR-Bilder aufnehmen können, die viel menschliches Eingreifen in der Post erfordern (oder einen großen Sprung in MV / AI). Sie könnten wahrscheinlich ein paar davon verkaufen, aber ich würde erwarten, dass der Markt dem Mittelformatmarkt sehr viel ähnlicher ist als dem bestehenden 35-mm / APS-C-Markt. Das heißt, Sie würden an eine ausgewählte Gruppe von hochhackigen Fotografen verkaufen, die entweder aus beruflichen Gründen oder zur Erfüllung ihrer künstlerischen Vision die Fähigkeiten tatsächlich benötigen, und an einige, die nur einen Kick aus der Nachbearbeitung ziehen, um zu zahlen die Technologiesteuer.
quelle
Es gibt eine Sache, die nur wenige erwähnen und die besagt, dass eine Szene nicht gleich aussehen würde, wenn verschiedene Bereiche anders belichtet würden als andere. Eine Szene sieht so aus, weil es Variationen gibt. Ja, es könnte eine Möglichkeit sein, Glanzlichter zu speichern und Schatten zu verstärken, aber letztendlich möchten Sie wirklich einen größeren Dynamikbereich, der den Dynamikbereich in der Szene mit einer Belichtungseinstellung erfassen kann.
Unsere Augen sind großartig darin, uns einen weitaus größeren Dynamikbereich zu bieten als die derzeitige Consumer-Kameratechnik. Ich kann mich schnell umsehen und genaue Details in schattigen Bereichen und hellen sonnenbeschienenen Bereichen gleichzeitig wahrnehmen.
Eine Möglichkeit für Kamerahersteller, dieses Problem zu umgehen, besteht darin, Pixel mit hoher und niedriger Empfindlichkeit in einem Sensor zu verwenden und dann das Ergebnis pro Pixel zu kombinieren. Die neueren digitalen Kinokameras von RED verfügen über eine Matrix aus normalen und niedrigempfindlichen Sensorpixeln, die als HDRx bezeichnet werden. Die kleinen Sensorpixel mit niedriger Empfindlichkeit werden zu den Glanzlichtern der hellen Pixel kombiniert, um den Dynamikbereich zu vergrößern.
quelle
Erstens ist der Dynamikbereich des menschlichen Auges nicht so groß. Es scheint nur besser zu sein als unsere aktuellen High-End-Kameras, weil unser Gehirn ständig "Schnappschüsse" zusammenführt, die mit unterschiedlichen Belichtungseinstellungen aufgenommen wurden. Unsere Augen können nicht gleichzeitig extrem helle und extrem dunkle Objekte registrieren (obwohl das Gehirn dies kann). Ein wahres Wunder der Bildverarbeitung, aber nur mittelmäßige Optik / Abbildungsvorrichtung.
Es gibt verschiedene Vorschläge / Prototypen, die zeigen, wie der Dynamikbereich von Bildsensoren erheblich verbessert werden könnte:
Modulo Kamera von MIT
Jede Fotodiode setzt ihren Zustand bei Erreichen der maximalen Ladung zurück und merkt sich, wie oft dies passiert ist
Quanta Image Sensor von Eric Fossum
Verwendet viel kleinere und schnellere Pixel mit Photonenzählung anstelle von "analogen" Ladungsbehältern und A / D-Wandlern
quelle
Ihnen fehlen hier einige Grundlagen der Physik. Das Hauptproblem ist, dass reale Szenen große Kontrastverhältnisse haben. Unsere Augen haben sich dahingehend weiterentwickelt, dass sie Lichtniveaus logarithmisch anstatt linear wahrnehmen. Leider misst die aktuelle Sensortechnologie das Licht von Natur aus linear. Genauer gesagt ist das Rauschen auf einer linearen Lichtskala fixiert.
Bei der gegenwärtigen Technologie ist die maximale Kontrastgrenze im Wesentlichen eine Funktion des Rauschpegels. Als Argument verwenden wir eine Lichtskala von 0-1000, dh ein Sensor kann Ihnen den Lichtpegel von 0 bis 1000 anzeigen. Welches ist das höchste Verhältnis, das er messen kann? Das hängt vom Geräuschpegel ab. Der Rauschpegel ist im Grunde das, was Sie anstelle von echtem Schwarz erhalten, was in diesem Beispiel 0 wäre. Wenn der Rauschpegel ungefähr 2 ist, erhalten Sie ein Helligkeitsverhältnis von 1000: 2 = 500: 1. Solange die Szene das nicht überschreitet (fast alle würden es aber, in Wirklichkeit ist 500: 1 nicht so viel), können Sie jede logarithmische Zuordnung vornehmen, die Sie später wünschen.
Angesichts der Tatsache, dass die Stromsensoren von Natur aus linear sind, besteht die aktuelle Strategie darin, das Signal-Rausch-Verhältnis zu erhöhen und genügend Bits bereitzustellen, so dass das Quantisierungsrauschen unter dem inhärenten Zufallsrauschen liegt. Je geräuschärmer der Sensor ist, desto größer ist der Dynamikumfang, den Sie aufnehmen können, ohne die Lichter zu beschneiden oder die Schatten zu verwischen.
Es gibt eine völlig andere Sensortechnologie, die das Protokoll der Helligkeit inhärent misst. Manchmal werden diese als "CMOS" -Sensoren bezeichnet, da sie CMOS-dynamischen RAMs mit abgenommenem Deckel sehr ähnlich sind (ich vereinfache das, aber der erste Test im Labor wurde tatsächlich auf diese Weise durchgeführt). Sie erhalten eine Spannung proportional zum Logarithmus des Lichts, aber diese haben derzeit viel geringere Signal-Rausch-Verhältnisse. Mitsubishi war der erste, der diese Sensoren auf den Markt brachte, aber sie sind noch lange nicht gut genug für High-End-Kameras.
Es wird zweifellos Fortschritte an mehreren Fronten geben, und ich bin sicher, dass wir in den kommenden Jahren stetige Fortschritte sehen werden. Es gibt jedoch gute Gründe, warum die Dinge so sind, wie sie jetzt sind, nicht nur, weil sich niemand etwas Besseres vorstellen kann. Wenn jemand eine Technologie hätte, die einen weiten Dynamikbereich genau und zu einem Preis messen könnte, für den die Leute bereit sind zu zahlen, wären sie reich.
quelle
Ich glaube, dass es einfach zu kompliziert ist.
Grundsätzlich gibt es zwei mögliche Ansätze; Entweder kann jeder Photosensor die Zeit verfolgen und sich selbst ausschalten, oder die CPU kann die Daten von den Photosensoren verfolgen und sie ausschalten.
Für den ersten Ansatz würde dies bedeuten, dass jeder Fotosensor ein Taktsignal und einen Zähler benötigt, damit er verfolgen kann, wie lange es gedauert hat, bis er sich selbst abgeschaltet hat. Das sind viel mehr Schaltkreise, die auf den Chip passen, und viel mehr Strom, um ihn zu betreiben, was das Signalrauschen erhöht. Wahrscheinlich so sehr, dass der vergrößerte Dynamikbereich sinnlos wäre.
Für den zweiten Ansatz müsste die CPU etwa einmal pro 1/10000-Sekunde alle Daten vom Sensor lesen. Das ist ungefähr 1000-mal schneller als die derzeitige Technologie, das ist also Jahrzehnte in der Zukunft, wenn überhaupt möglich.
Es gibt auch andere Komplikationen mit einer solchen Lösung, so dass jedes Pixel eine andere Belichtungszeit erhalten würde. Sie würden ziemlich seltsame Artefakte erhalten, wenn Sie alles fotografieren, was sich bewegt.
quelle
DSLRs sind zwar digital, Objektive jedoch nicht. Alle Zellsensoren haben dieselbe Blende, egal wie intelligent der DSLR-Körper ist, da die Blende am Objektiv eingestellt ist. Daher denke ich, dass die Veränderung der Apertur pro Sensorzelle zumindest mit der aktuellen Linsentechnologie nicht möglich ist.
Was die Verschlusszeit betrifft, wird diese von der Kamera gesteuert. Wenn Sie sich jedoch eine Kamera vorstellen, bei der die Verschlusszeit an verschiedenen Stellen des Bildes variiert werden kann, um die Über- / Unterbelichtung zu steuern, kommt es zu ungleichmäßigen Bewegungsunschärfen. Die dunkleren Bereiche der Szene müssen länger belichtet werden und sind unschärfer als die helleren Bereiche. Ich denke, dass eine Lösung, die die Verschlusszeit ändert, aus diesem Grund nicht funktioniert.
Das einzige, was noch übrig ist, ist ISO. Das Variieren der ISO würde unterschiedliche Rauschpegel in verschiedenen Teilen des Bildes bedeuten. Das hört sich nicht schlecht an, wenn man bedenkt, dass man im Gegenzug einen viel größeren Dynamikumfang erhalten würde. Ich weiß nicht viel darüber, wie Sensoren funktionieren, aber ich würde mir vorstellen, dass die ISO-Einstellung in Sensoren als eine Art "Abstimmung" auf eine bestimmte Teilmenge der Helligkeitsskala implementiert wird. Es klingt für mich unerschwinglich, an jeder Sensorzelle eine unabhängige Messung und ISO-Kontrolle durchzuführen, aber vielleicht kann das Bild in Bereiche aufgeteilt und jeder Bereich separat gemessen werden. Dann muss die Kamera über einen Algorithmus verfügen, mit dem die unterschiedlich belichteten Bereiche gemischt werden können. Diese Art von "Überblendung" erfolgt, wenn ein Panorama erstellt wird, bei dem jedes Bild eine unterschiedliche Belichtung aufweist. Das klingt für mich machbar.
Eine weitere Option wäre eine Kamera mit mehreren Sensoren, die jeweils auf eine andere ISO konfiguriert sind. In der Videotechnik gibt es 3 CCD-Kameras, bei denen jeder CCD eine der Farben Rot, Grün und Blau aufzeichnet. Ich verstehe nicht, warum es für DSLRs kein ähnliches Konzept geben könnte, bei dem mehrere Sensoren das Bild auf verschiedenen ISO-Ebenen aufnehmen und so ein HDR-Bild erzeugen.
quelle
Ich kann die Informationen derzeit nicht finden, erinnere mich aber an eine Beschreibung einer ähnlichen Technologie. Die Idee war ungefähr so: Das Einzige, worauf geachtet werden muss, sind überfüllte Highlights. Wenn Sie dies verhindern können, können dunkle Bereiche durch eine stärkere Belichtung des gesamten Bildes behoben werden. Um übermäßige Glanzlichter zu vermeiden, verfolgt jeder Sensor das akkumulierte Licht und schaltet den Sensor aus, wenn das Maximum erreicht ist. Das allein würde nichts verbessern, es würde die Sache sogar noch schlimmer machen, anstatt ein paar hellweiße Überblendlichter zu haben, würde man sogar noch etwas dunklere Lichter erhalten. Anstatt einfach nur abzuschalten, hat die Zelle auch Zellen in einer bestimmten Nachbarschaft abgeschaltet, wodurch in hellen Bereichen einige Details erhalten bleiben.
Wie ich schrieb, kann ich den Text jetzt nicht finden, aber irgendwie ist es in meinem Kopf mit HP Digitalkameras verbunden.
quelle
Dies kann mathematisch (theoretisch) erfolgen: http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.64.9692&rep=rep1&type=pdf
quelle