Was sind die technischen Schwierigkeiten beim Aufbau eines Sensors mit hohem Dynamikbereich wie das menschliche Auge?

17

Warum gibt es noch keine hochdynamischen Sensoren, die in jedem Bildbereich die richtige Belichtung haben?

Andreas Hartmann
quelle
2
Eigentlich habe ich nach Beantwortung gesehen, dass dies hier schon besprochen wurde . Wenn das nicht alles für Sie beantwortet, sollten Sie Ihre Frage mit weiteren Details erweitern.
mivilar
Eine BlackMagic-Kamera (Full-HD-Video) hat einen EV von 14, moderne professionelle Videokameras (4K) haben 18 EV. Also haben wir diese Sensoren ...
TFuto

Antworten:

20

Es gibt bereits Kameras mit einem DR, der sofort und insgesamt größer als das menschliche Auge ist. Der Dynamikumfang des menschlichen Auges ist nicht so groß, wie die meisten Menschen glauben. Soweit ich mich erinnere, sind es ungefähr 12 bis 16 EVs, was ungefähr dem Niveau einer modernen DSLR entspricht.

Der Hauptunterschied besteht darin, dass wir eine extrem natürliche Blendensteuerung haben, die sich an verschiedene Teile des Bildes anpasst. Tatsächlich stapelt unser Gehirn die Bilder automatisch für uns. Wenn wir den hellen Teil einer Szene betrachten, schrumpfen unsere Pupillen und wir sehen das Detail des hellen Teils. Wenn wir uns auf den dunkleren Teil konzentrieren, öffnen sich unsere Pupillen schnell und wir sehen das Detail des dunklen Teils. Unser Gehirn weiß, wie der vorherige Teil ausgesehen hat, und so bemerken wir die Veränderung unserer peripheren Sicht nicht, aber wir sehen nicht so viele Details, in denen wir nicht mehr fokussiert sind.

In ähnlicher Weise gibt es auch für den gesamten Bereich des menschlichen Sehens Spezialkameras, die viel dunkler als wir werden und dennoch sehen können, insbesondere in Farbe. Sie sind derzeit einfach zu teuer für die breite Öffentlichkeit, da sie sehr hochwertige Materialien und Konstruktionen erfordern Holen Sie sich das Grundrauschen super niedrig. Es gibt auch Sensoren, die in der Lage sind, sehr helle Objekte zu betrachten, deren Betrachtung für Menschen schmerzhaft wäre.

AJ Henderson
quelle
AJ, DSLR haben nicht den gleichen Dynamikumfang wie Auge. für DSLR ist 2 auf Potenz von 14, für das menschliche Auge ist 10 auf Potenz von 14
Romeo Ninov
@ RomeoNinov - nicht für sofortige DR, nur für anscheinend. Haben Sie eine Quelle für Ihren Anspruch? Meine Quelle ist hier "Wenn wir stattdessen den augenblicklichen Dynamikbereich unseres Auges (bei unveränderter Pupillenöffnung) betrachten, erweisen sich Kameras als viel besser. Dies wäre vergleichbar mit dem Betrachten einer Region innerhalb einer Szene, dem Anpassen unserer Augen und In diesem Fall schätzen die meisten, dass unsere Augen irgendwo zwischen
AJ Henderson
@RomeoNinov - etwas bessere Ressource . Es ist also wichtig darauf hinzuweisen, dass unsere Augen besser sind, wenn die Kameras schlecht sind, aber unsere Augen schlechter, wenn die Kameras besser sind. Im Schatten haben wir 20 EVs, während Kameras EVs reduziert haben. Bei der Helligkeit haben wir ungefähr 10 EVs, aber die Kameras haben ihre vollen 12 bis 14 EVs. Die 10 ^ 14 ist die Gesamtreichweite, die wir sehen können, wenn sich unsere Augen anpassen, nicht das, was wir zu einem bestimmten Zeitpunkt sehen. In dieser Hinsicht sind Kameras auch nicht auf 2 ^ 14 beschränkt.
AJ Henderson
Ja, die Kameras sind auf die Bittiefe Ihres Rohbilds beschränkt. Sie können nicht mehr Bits oder mehr Informationen aus dem Bild erhalten. Ich bin damit einverstanden, dass das "Sehen" des Bildhirns nicht nur aus einer Momentaufnahme des Auges besteht. Außerdem verwenden wir zwei Augen, die dem Bild im Gehirn viele zusätzliche Informationen hinzufügen. Und in der Ressource, die Sie im zweiten Kommentar erwähnen, sehen Sie den dynamischen Bereich des Auges, der mit einer Stärke von 10 angezeigt wird. Dies bestätigt nur meine Worte. Selbst wenn DR nur 12 EV ist, sind es 10 ^ 12, was Millionen Millionen sind, verglichen mit 2 ^ 14, was 16384
Romeo Ninov,
1
Aber auch ein Sensor, der stark auf beispielsweise sechs DR- Stufen gleichzeitig beschränkt ist, kann verwendet werden, um Details von sehr dunklen bis sehr hellen Werten in aufeinanderfolgenden Bildern durch Ändern von Tv und Av zu messen! In Bezug auf die Blende macht das das Auge-Gehirn-System.
Michael C
10

Sehen ist ein aktiver Prozess

Ein großes Problem ist, dass das Betrachten mit Ihren Augen sehr viel anders ist als das Aufnehmen eines Bildes - ein Bild muss alle Informationen enthalten, die der Betrachter möglicherweise sieht, aber normales Sehen ist ein aktiver Prozess, der die Bewegung der Augen, die Neufokussierung und die Erweiterung der Pupillen nach sich zieht zu den Objekten, die wir betrachten. Wenn Sie also erfassen möchten, was das Auge sieht, müssen Sie im Wesentlichen alle Einstellungen erfassen, die das Auge möglicherweise verwendet.

Ihre Frage bezieht sich auf den Dynamikbereich, aber das gleiche Problem tritt mit visuellen Details und Fokus auf. Ein "lebensäquivalentes" Bild benötigt viel, viel mehr Pixel, als Ihr Auge tatsächlich erfassen kann, da die Augenauflösung sehr ungleich ist und ein Bild nur einen einzelnen kleinen Punkt mit der hochauflösenden Mitte der Netzhaut betrachtet Weitere Details sind verfügbar, da Sie Ihre Augen bewegen werden. Filme müssen einen einzigen Fokus wählen, während ein Mensch ein "einzelnes Bild" mit größerer Tiefe betrachten kann, indem er die Augen schnell neu fokussiert und / oder sie für eine korrekte binokulare Sicht in verschiedenen beabsichtigten Bereichen bewegt (z. B. Blick auf die Oberfläche eines Fensters oder durch dieses Fenster) ), etc.

Ein Teil der Lösung ist genau das: Wenn Sie eine einzelne Kamera mehrmals schnell (oder mehrere Kameras) verwenden, um eine Vielzahl von Bildern mit unterschiedlichen Einstellungen aufzunehmen und diese anschließend zusammenzuführen, ist HDR das offensichtlichste Beispiel - genau wie unser Auge sieht es aktiv aus an verschiedenen Orten mit unterschiedlichen "Einstellungen" und erst danach fügt Ihr Gehirn alles zu einem zusammenhängenden Bild oder Film zusammen. Die tatsächlichen "Bilder", die von unseren Augen aufgenommen werden, sind schon schlechter als gute Kameras, einfach ist die mentale Kombination von ihnen nett.

Peter ist
quelle
1
+1 für Ihren Punkt über den Fokus in Filmen. Dies hängt auch mit einem der Hauptgründe zusammen, warum viele Menschen beim Betrachten von 3D-Filmen Kopfschmerzen bekommen. Das Auge muss sich physisch auf den Bildschirm konzentrieren, aber das stereoskopische Bild täuscht das Gehirn vor, dass einige Teile des Bildschirms näher oder weiter entfernt sind als sie tatsächlich sind, was zu einer Belastung der Augen führt, wenn Sie versuchen, sie direkt anzusehen. Die Studios versuchen dies zu minimieren, indem sie den Brennpunkt der Szene sowohl auf dem linken als auch auf dem rechten Bild an derselben Stelle anzeigen. Wenn Sie sich also gerne im Hintergrund umschauen, vergessen Sie nicht den Ibuprofen!
bcrist
Die Tatsache, dass das Sehen ein aktiver Prozess ist, ist einer der Gründe, warum wirklich gute Künstler Bilder schaffen können, die besser aussehen als ein einfaches Foto. Ein einfaches Foto erfasst alles in der Szene mit den gleichen Eigenschaften hinsichtlich Blickwinkel, Fokus, Belichtung und Weißabgleich. Die Augen von Personen, die die Szene tatsächlich betrachteten, passen sich möglicherweise ständig an, wenn sie verschiedene Teile betrachten. Ein Maler kann im Gegensatz zu einer Kamera ein Bild erzeugen, in dem jeder Teil der Szene so aussieht, als würde er eine Person betrachten, die sich tatsächlich an diesem Ort befand.
Supercat
6

Ihr geistiges Bild ist nicht nur das Produkt der Netzhaut, sondern auch das Zusammenspiel mit allen anderen Komponenten des Sehens, einschließlich der Pupille und natürlich Ihres Gehirns. Was Ihnen als "ein Bild" erscheint, ist in der Tat das Ergebnis schneller Anpassungen und Informationsverarbeitung und nicht ein einziger Schnappschuss.

Weitere Informationen zu diesem Thema finden Sie hier .

mivilar
quelle
1

Es ist durchaus möglich, einen Lichtsensor mit logarithmischen Eigenschaften herzustellen - ein solcher Sensor hätte einen unglaublichen Dynamikbereich auf Kosten einer begrenzten Auflösung für eine bestimmte Belichtung. Um beides zu erreichen, ist ein hochauflösender ADC erforderlich. Bei der CT-Bildgebung werden in der Regel 24 Bit linear verwendet. Anschließend wird der Logarithmus nach der Offset-Anpassung verwendet, um das CT-Bild zu erstellen.

Ein Sensor, der sowohl die Belichtungssteuerung (Integrationszeit - denken Sie an die Verschlusszeit) als auch die Änderung der Lichtsammlungseffizienz (denken Sie an die Blendenzahl) ausführt, bietet eine noch größere Flexibilität.

Der maximale Dynamikbereich wird in der Regel durch das Ausleserauschen begrenzt - wenn Sie die akkumulierte Ladung auslesen, tritt ein Fehler auf - im Vergleich zum größten Signal, das die Elektronik unterstützen kann. Wie gesagt - 24 Bit sind in der medizinischen Bildgebung weit verbreitet und das ist besser als 1 Teil von 10 Millionen. Dies ist ein viel höherer dynamischer Bereich als die Netzhaut bei einer bestimmten Belichtung. Dies ist jedoch bei herkömmlichen Kameras nicht üblich, da das Auge diese Details im Bild nicht erkennen kann - und die Auflösung geht zu Lasten der Geschwindigkeit.

Floris
quelle