Warum wird der Hauptsensor nicht anstelle des separaten AF-Sensors zum Fokussieren einer DSLR verwendet?

9

Aus dieser Antwort verstehe ich, dass der Reflexspiegel einer DSLR tatsächlich nicht das gesamte Licht reflektiert, sondern eine bestimmte Menge an den AF-Sensor weiterleitet.

Wenn der Reflexspiegel Licht durchlassen kann, warum nicht den Hauptsensor (der sich direkt hinter dem Spiegel befindet) zum Fokussieren verwenden?

Hinweis :
In einem Kommentar unter der verknüpften Antwort wird darauf hingewiesen, dass der AF-Sensor ein Objektiv benötigt, um Lichtstrahlen auf die entsprechende Position des Sensors zu fokussieren, da dieser kleiner als der Hauptsensor ist (Kursivschrift ist meine eigene Annahme). Wenn der Hauptsensor verwendet würde, wäre dieses zusätzliche Objektiv noch erforderlich?

Saaru Lindestøkke
quelle
Im Live View-Modus verwenden DSLRs den Hauptsensor zum Fokussieren. Es ist im Allgemeinen ein ziemlich langsamer Prozess.
James Snell
1
Ich bin mir dessen bewusst, beziehe mich aber auf den AF mit schneller Phasenerkennung, für den normalerweise ein separater Sensor verwendet wird. Vielleicht sollte ich das im Titel klarer machen.
Saaru Lindestøkke
1
Seltsamerweise habe ich es gerade geschafft und das Sony A99 verfügt über ZWEI Phasenerkennungssensoren und einer ist Teil des Hauptsensorarrays. Ich habe kein Detail darüber gesehen, warum, aber es könnte Ihnen einen Ausgangspunkt geben.
James Snell
Seltsamerweise fehlt dem Sony A99 der "Reflex", der ihn zu einem DLS R machen würde , da es sich um ein SLT-Design handelt. Der Grund dafür sind zwei Phasenerkennungssysteme: 1) Der unabhängige Sensor ist schneller und kann während der Videoaufnahme kontinuierlich fokussieren. 2) Der im Bildsensor integrierte AF-Sensor deckt sich bewegende Ziele ab, wenn sie sich zwischen den Fokuspunkten des unabhängigen Fokus befinden Array. Trotzdem sagen DP Review und die meisten anderen, dass Sony nicht mit der Keeper-Rate des 5DIII für Schießaktionen / Sport mithalten kann, geschweige denn mit der D4 oder der 1D X.
Michael C

Antworten:

16

Der Phasendetektions-Autofokus misst die horizontale Verschiebung zwischen den auf den AF-Sensor projizierten Helligkeitsmustern. Um die Verschiebung zu messen, werden Paare von eindimensionalen Arrays von monochromen Pixeln verwendet. So sieht der AF-Sensor in der Canon 5D mkIII aus:

Sie können viele verschiedene Pixelzeilen sehen, die von verschiedenen vom Benutzer auswählbaren AF-Messfeldern verwendet werden. Im Prinzip können Sie Pixelzeilen auf dem Hauptbildsensor verwenden, um genau den gleichen Job auszuführen.

Dieser Ansatz hat einige Vorteile:

  • Sie haben keine Probleme, wenn der Hauptbildsensor und der AF-Sensor falsch ausgerichtet sind, da sie ein und dasselbe sind.

  • Sie vermeiden die Komplexität der Sekundärspiegel und die Kosten des AF-Chips selbst.

Die Verwendung des Hauptsensors weist Nachteile auf.

In einem Kommentar unter der verknüpften Antwort wird darauf hingewiesen, dass der AF-Sensor eine Linse benötigt, um Lichtstrahlen auf die entsprechende Position des Sensors zu fokussieren, da dieser kleiner als der Hauptsensor ist (Kursivschrift ist meine eigene Annahme).

Ihre Annahme ist nicht ganz richtig. Es hat nichts mit einem kleineren AF-Sensor zu tun, die AF- "Objektive" sind eigentlich ein Objektiv mit einem wellenförmigen B-förmigen Profil. Dieses Objektiv fokussiert Licht, das von beiden Seiten des Objektivs kommt, auf verschiedene Teile des AF-Sensors.

Sie benötigen immer noch eine Art Objektiv, um diese Aufgabe zu erledigen, wenn Sie den Hauptbildsensor verwenden, und es müsste beim Aufnehmen eines Fotos zusammen mit dem Reflexspiegel aus dem Weg schwingen, was eine komplizierte mechanische Anordnung innerhalb der Kamera erfordert. Dies ist der Hauptnachteil dieses Ansatzes, obwohl es andere Hindernisse gibt:

  • Die Bildsensorpixel befinden sich hinter Farbfilterarrays, die die Lichtmenge, die sie erreicht, um bis zu zwei Drittel reduzieren. Dies könnte möglicherweise die Leistung bei schlechten Lichtverhältnissen verringern, es würde Ihnen jedoch ermöglichen, die Phasenmessungsanpassung in Farbe durchzuführen, um weniger falsche Ergebnisse zu erzielen (es ist weniger wahrscheinlich, dass Sie beispielsweise ein Detail aus dem Vordergrund mit einem Detail aus dem Hintergrund verwechseln Auch Farbe kann verwendet werden, um die Verfolgung zu unterstützen.

  • Die Größe, der Abstand und die Empfindlichkeit der Pixel unterscheiden sich zwischen den beiden Sensoren. Wenn Sie also beide mit einem Sensor verwenden, müssen Kompromisse eingegangen werden.

  • Der Hauptsensor müsste viel länger eingeschaltet sein, damit mehr Energie aus den Batterien fließt. Wie Stan betont, müsste der Verschluss auch während des AF geöffnet sein, so dass das Schließen vor dem Belichten zu einer Verzögerung führen würde.

  • Schließlich datiert der Phasenerkennungs-AF digitale Bildsensoren vor, sodass die gesamte Technologie und das gesamte Werkzeug zur Durchführung des AF unter Verwendung eines separaten Sensors bereits vorhanden und gut entwickelt sind.

Allerdings haben die Hersteller eine etwas andere Methode zur Phase erfassen AF entwickelt , das macht den Hauptsensor verwenden. Es wurde für spiegellose Kameras entwickelt, die nicht über einen dedizierten AF-Sensor verfügen und sich traditionell auf die langsamere Kontrasterkennungsmethode mit dem Hauptsensor verlassen.

Anstelle eines Paares von AF-Linsen im Lichtweg, um Licht von beiden Seiten des Objektivs auf verschiedene Teile des AF-Sensors zu lenken, können Paare von regulären Mikrolinsen mit abwechselnd verdunkelten Hälften verwendet werden, um einen ähnlichen Effekt zu erzielen (Pixel links) halb ausgeblendet empfängt meistens Licht von der rechten Seite des Objektivs und umgekehrt.

Dies ermöglicht einen hybriden AF-Ansatz mit einer Kombination aus Phase (um dem richtigen Fokus nahe zu kommen) und Kontrasterkennung (um das Ergebnis zu optimieren).

Matt Grum
quelle
sehr schöne Antwort!
Michael Nielsen
Ich bin mir nicht ganz sicher, aber ich glaube, dass die Maskierung auf Pixelebene problematisch ist und deshalb gibt es Präzisionsprobleme bei einer solchen Phasenerkennung auf dem Sensor. Mit einem Standard-Phasendetektionssensor können Sie die Phasendifferenz mit einem größeren Delta messen. Dies kann der Grund sein, warum einige Sensoren bis zu einem anderen maximalen Aperturwert empfindlich sind.
Itai
Gute Antwort. Nur um sicherzugehen, sind die B-förmigen Linsen dazu da, das Bild in zwei Teile zu "teilen", so dass die beiden Phasen analysiert werden können, oder? (wie in dieser Antwort beschrieben )
Saaru Lindestøkke
Ich denke, ein weiterer Vorteil, insbesondere in der Vergangenheit (bei modernen Designs, die HD-Videos unterstützen, spielt dies eine geringere Rolle), besteht darin, dass die wenigen Dutzend Pixel eines AF-Sensors viel schneller gelesen werden können als die Millionen Pixel des Primärsensors, was eine schnellere Rückkopplungsschleife ermöglicht .
Dan spielt
1
Es gibt auch die Kleinigkeit des Verschlusses, mit der sich die Mechanik befassen muss. Die Verwendung des Bildsensors für die Fokussierung unter Verwendung eines mechanischen Verschlusses in der Brennebene für die Belichtungsdauer bedeutet, dass der Verschluss zwischen der Erfassung des Fokus und dem Beginn der Bildaufnahme geschlossen / gespannt werden muss (wie dies bei den meisten DSLRs in der Live-Ansicht der Fall ist). Dies bedeutet eine zweifache Auslösung des Verschlusses, selbst wenn Sie die Zeit maskieren können, die hinter der Reflexspiegelschwingung benötigt wird. Dies bedeutet entweder, dass der Verschluss verlangsamt wird oder die Zuverlässigkeit verloren geht.
2

Geschwindigkeit

Die Geschwindigkeit ist wahrscheinlich der Hauptgrund, warum der Bildsensor in den meisten DSLRs nicht zum Fokussieren verwendet wird. AF wurde gegen Ende der Filmära entwickelt, daher war die Verwendung des "Sensors" (des Films) zur Fokussierung keine Option. Die meisten Phasendetektions-AF-Systeme waren "offene Schleifen", die mehr auf Geschwindigkeit als auf Genauigkeit ausgelegt waren. Erst vor kurzem haben die großen Kamerahersteller damit begonnen, Objektiv- / Körpersysteme zu entwickeln, die während des Phasenerkennungs-AF eine "Closed-Loop" -Kommunikation zwischen Körper und Objektiv verwenden. Dies hat es Phasendetektionssystemen ermöglicht, sich der Genauigkeit des Kontrasterkennungs-AF anzunähern und in einigen Fällen gleich zu sein. Obwohl sich die Geschwindigkeit des Kontrasterkennungs-AF unter Verwendung des Hauptsensors verbessert, da es sich um einen mehrstufigen Prozess handelt, der mehrere "Verschieben und Messen" -Zyklen erfordert, ist er immer noch langsamer, aber normalerweise auch genauer.

Obwohl es seltene Ausnahmen gibt, verwenden alle mir bekannten DSLRs immer noch mechanische Verschlüsse. Dies bedeutet, dass der Hauptbildsensor während des Fokussierens und Messens abgedeckt wird. Es gab einige spiegellose Modelle, die nur einen zweiten Vorhangverschluss haben, aber technisch gesehen handelt es sich nicht um DSLRs.

Um den Hauptsensor für die Phasenerkennung AF zu verwenden, müsste der Verschluss geöffnet sein, um fokussieren zu können. Der erste Vorhang würde sich dann schließen, bevor er wieder geöffnet wird, um das Bild zu belichten, wonach sich der zweite Vorhang schließen würde. Selbst wenn Sie mehr als 8 Bilder pro Sekunde aufnehmen, konzentrieren sich die fortschrittlichsten DSLRs zwischen den einzelnen Aufnahmen (sofern dies durch die vom Benutzer ausgewählten Einstellungen angeordnet wurde). Derzeit setzen DSLRs beide Vorhänge gleichzeitig zurück, während der Spiegel wechselt und der AF fokussiert. Um den Bildsensor zum Fokussieren zu verwenden, müsste der erste Vorhang offen bleiben, bis der Spiegel wieder heruntergefallen ist und die Kamera die Fokusverriegelung erreicht hat. Dann müsste der Rest der Kamera warten, bis sich der erste Vorhang schließt und die Energie absorbiert wird durch den Sensor während der Fokussierung gelöscht, bevor der erste Vorhang wieder geöffnet werden konnte, um das Bild zu belichten. Dies würde den Gesamtprozess verlangsamen, wenn der gesamte Punkt des Phasenerkennungs-AF die Geschwindigkeit ist. Der Kontrasterkennungs-AF, der während der Live-Ansicht verwendet wird, bei der der Hauptbildsensor zum Fokussieren verwendet wird, ist im Allgemeinen genauer, aber langsamer.

Michael C.
quelle
1

Der Hauptsensor in einer DSLR hat nur eine Funktion und eine Funktion, und das ist, um ein Bild aufzunehmen und dies sehr, sehr gut zu tun.
Ein Kompromiss durch den Einbau zusätzlicher Elektronik würde die Qualität und Leistung beeinträchtigen. Warum also, wenn perfekt gute dedizierte Sensoren verfügbar sind?
Außerdem entwickelten sich DSLRs aus Film-Spiegelreflexkameras, bei denen natürlich keine elektronischen Geräte in den Film eingebaut waren, die für diesen Zweck pervers sein könnten.

jwenting
quelle
1

Spezialisierte Geräte arbeiten besser und effizienter.

Autofokussensoren, die in DSLRs verwendet werden, sind hoch abgestimmt, um Autofokus schnell und bis zu sehr niedrigen Lichtverhältnissen durchzuführen.

Wenn Sie den Hauptsensor für den Autofokus verwenden würden, hätten Sie zwei Möglichkeiten:

  • Implementieren Sie den Kontrasterkennungs-Autofokus, der einen enormen Stromverbrauch darstellt, aber tatsächlich präziser ist als die Phasendetektion. Die Kontrasterkennung erfordert jedoch eine Hin- und Herbewegung der Fokuselemente in sehr feinen Schritten, was für moderne DSLR-Objektive nicht optimal ist.
  • Implementieren Sie den Phasenerkennungs-On-Sensor, der möglich, aber viel ungenauer ist als die Verwendung eines dedizierten Sensors, da der bildgebende Teil des Sensors Ihre Möglichkeiten einschränkt.

Die Realität ist, dass der Spiegel nur in einigen Bereichen Licht durchlässt und dass das meiste davon vollständig reflektierend ist, was Ihnen eine helle Sicht gibt.

Sony verfügt über SLT-Kameras mit einem wirklich halbreflektierenden Spiegel (30% / 70%), mit dem sowohl Live-View- als auch Phasenerkennungs-Autofokus gleichzeitig bereitgestellt werden können. Auf diese Weise können sie einen speziellen Phasenerkennungssensor verwenden, um die Autofokusgeschwindigkeit zu erhöhen und hin- und hergehende Objektivbewegungen zu vermeiden, was für Videos schrecklich ist. Der Sensor verliert etwas Licht, das ihn erreicht, daher muss er empfindlicher sein, um die gleiche effektive ISO zu erzeugen, was ein Nachteil für die Bildqualität ist. Das nach oben reflektierte Licht ist zu schwach, um einen schönen optischen Sucher herzustellen, daher mussten sie in einen EVF passen.

Itai
quelle
0

Einfach ausgedrückt, der gleiche Grund, warum Sie morgens nicht mit einem Sattelschlepper zur Arbeit fahren (es sei denn, Sie sind Trucker). Der AF-Sensor kann seine Arbeit besser erledigen, wenn er nicht mit dem Bildsensor um die Oberfläche konkurrieren muss. Die Sensoren unterscheiden sich in der Natur, und obwohl es einige Designs gibt, die AF-Sensoren in den Bildsensor integrieren, bedeutet dies, dass Bereiche des Bildsensors das sichtbare Licht, das auf diese Bereiche trifft, nicht so gut erfassen, wie es könnte.

Es gibt Hybridsensoren, die sowohl die AF- als auch die Lichtmessung für das Bild ausführen können, aber sie erledigen in der Regel weder einen Job noch einen speziellen Sensor für beide. Es ist vielleicht nicht viel, aber es reicht aus, wenn Sie versuchen, den besten AF und die beste Bildleistung zu erzielen, können separate Sensoren immer noch bessere Arbeit leisten.

AJ Henderson
quelle
1
Ich verstehe nicht, warum der AF-Sensor mit dem Bildsensor um die Fläche konkurrieren müsste, wenn für beide Zwecke genau die gleichen Fotoseiten verwendet werden können. Phasenerkennungs-AF-Pixel auf dem Hauptsensor (wie sie von einigen spiegellosen Kameras verwendet werden) erfassen beim Aufnehmen eines Fotos sichtbares Licht und tragen zum Bild bei. Die verringerte Empfindlichkeit dieser Pixel ist nicht erkennbar, da die AF-Pixel im Vergleich zu mehreren zehn Millionen regulären Pixeln einige Tausend betragen.
Matt Grum
1
@ MattGrum - Ich habe nie gesagt, dass es eine große Verschlechterung ist, nur eine Verschlechterung. Wenn es Ihr Ziel ist, das absolut bestmögliche Bild aufzunehmen, führt ein etwas besserer Kompromiss zu einer etwas besseren Qualität. Soweit ich weiß, funktionieren die Hybridpixel auch nicht so gut wie dedizierter AF. Sie sind Alleskönner, aber es ist ein Kompromiss.
AJ Henderson
Sie sagten, "Bereiche des Bildsensors erfassen nicht das sichtbare Licht, das auf diese Bereiche trifft", was nicht wahr ist. Diese Pixel empfangen Licht, wandeln es in Ladung um und tragen zum Bild bei. Es sind sowieso nur 0,1% der Pixel, also würde ich mich wundern, wenn Sie den Unterschied sehen könnten. Ja, sie sind nicht so gut für AF, aber Sie haben nicht die Option eines dedizierten AF-Sensors in einer spiegellosen Kamera, also ist es besser als nichts. Ich würde eher einen spiegellosen kaufen, der PDAF auf dem Sensor hat, als einen, der dies nicht tut.
Matt Grum
@ MattGrum - ja. Ich gebe zu, dass ich nicht wusste, dass die Hybridpixel nützliche Informationen erfasst haben. Ich gehe davon aus, dass die Farbfiltration der Grund dafür ist, dass sie weniger effektiv sind, oder gibt es andere Probleme damit? Ist mein Verständnis richtig, dass ein dedizierter PD-Sensor keine nützlichen Informationen erfasst, da ich vermuten würde, dass ihm die Farbfilterung fehlt, die für etwas anderes als die Messung erforderlich ist?
AJ Henderson
0

Ein möglicher Grund, der nichts mit Autofokus zu tun hat, besteht darin, dass der Bildsensor vor der Aufnahme eines Bildes von jeglicher Ladung befreit werden muss. Die Verwendung des Hauptbildsensors für AF / Komposition, wie dies bei allen Liveview-Kameras (die meisten spiegellosen) der Fall ist, erfordert, dass der Sensor ausgeschaltet und von der Ladung befreit wird, bevor das Bild aufgenommen wird Liveview-Bild auf dem aufgenommenen Bild.

Dies ist einer der Gründe für die Verschlussverzögerung bei Liveview-Kameras. dSLRs hängen nicht von der Liveansicht ab.

Und nein, wenn Sie den Hauptsensor für AF verwenden, benötigen Sie keinen separaten Lichtweg / Objektiv für das separate AF-Array. Spiegellose Kameras sind viel einfacher als DSLRs, da keine Spiegelbox vorhanden ist und keine separaten AF- und Belichtungssensor-Arrays und Lichtwege erforderlich sind.

In seinem Blog-Beitrag "Demise of the dSLR" schätzt Ming Thein aus seiner persönlichen Erfahrung mit der Demontage, dass spiegellose Kameras 60-70% weniger Teile als dSLRs haben.

inkista
quelle