Reduziert IBIS die Bildauflösung? Wie ist es im Vergleich zu objektivbasierten IS?

7

Ich habe in letzter Zeit viel über die Bildstabilisierung im Körper gehört und frage mich, wie diese Technologie funktioniert. Ich meine nicht den mechanischen Teil (ich verstehe, wie sich der Sensor zum Kompensieren entlang verschiedener Achsen bewegt), sondern die Technik im Prinzip:

Wenn ich meine 5D III und ein Objektiv wie das 70-200 2.8 II IS USM mit aktivierter Stabilisierung nehme, bewegt das IS ständig ein Glaselement innerhalb des Objektivs so, dass es den Lichtkegel genau auf den Sensor lenkt dass Sie immer den gesamten Sensorbereich nutzen können.

Wenn der Lichtkegel durch eine nicht stabilisierte Linse geht und Sie den Sensor bewegen müssen - wie kann er überhaupt die gleiche Lichtmenge erfassen? Das Licht tritt über eine feste Achse durch die Mitte der Linse in die Linse ein. Wenn sich der Sensor gerade nach unten bewegt, um beispielsweise ein Verwackeln auszugleichen, kann ich nicht sehen, wie er dann noch die volle Auflösung erfassen kann? Wenn sich ein Teil des Sensors unter der Standard- / Ruheposition befindet, muss dann derselbe Teil an der gegenüberliegenden Stelle fehlen?

Es gibt nur einen Weg, wie ich IBIS ohne Reduzierung der Auflösung abbilden kann: Wenn der Sensorbereich erheblich größer ist als der Bereich, der Licht ausgesetzt ist, ist immer noch ein Sensor verfügbar, wenn er sich derzeit aus seiner Ausgangsposition bewegt. Aber wäre dies nicht (teilweise) dasselbe wie eine digitale Stabilisierung, da das endgültige Bild aus dem gesamten Sensorbereich abzüglich des nicht belichteten Bereichs berechnet wird?

Ich würde das wirklich gerne verstehen und es wäre großartig, wenn jemand "etwas Licht ins Dunkel bringen" könnte.

Alex
quelle
1
Es gibt diesen Artikel von PhotographyLife ( photoylife.com/… ), in dem einige Vor- und Nachteile beider Stabilisierungssysteme erwähnt werden, der jedoch nicht genau erklärt, wie IBIS funktioniert. Ich gehe davon aus, dass Sie daran interessiert sind. Ich stimme Ihrer Frage zu weil Sie mein Interesse an IBIS ebenfalls geweckt haben.
pgg66
1
Bei einigen stark elektronisch korrigierten Objektiven (z. B. dem (in) berühmten SEL1650PZ) sind einige Seiten ohnehin durch Nachbearbeitung in der Kamera abgeschnitten, um Verzerrungen und Vignettierungen zu vermeiden. Sehen Sie sich eine Rohdatei dieser Objektive mit einem Betrachter an, der dies nicht versteht das Objektiv (oder kann gezwungen werden, alle Objektivkorrekturen zu deaktivieren) ....
Rackandboneman

Antworten:

14

Es gibt nur einen Weg, wie ich IBIS ohne Reduzierung der Auflösung abbilden kann: Wenn der Sensorbereich erheblich größer ist als der Bereich, der Licht ausgesetzt ist, ist immer noch ein Sensor verfügbar, wenn er sich derzeit aus seiner Ausgangsposition bewegt.

Es ist eigentlich genau das Gegenteil. Der Bildkreis - das Ergebnis dieses Lichtkegels, der auf die Bildebene trifft - ist größer als der Sensor. Es muss sein, erstens, weil dies die einzige Möglichkeit ist, ein vollständiges Rechteck aus einem Kreis herauszuschneiden, aber auch, weil die Kanten des Kreises nicht eindeutig sind - es ist eine Art hässliches Ausblenden mit einem Durcheinander von Artefakten. Der Kreis deckt also mehr als nur das Minimum ab.

Damit IBIS effektiv ist, muss dieses Minimum etwas größer sein. Um ein konkretes Beispiel zu nennen: Ein Vollbildsensor ist 36 × 24 mm groß, was einer Diagonale von etwa 43,3 mm entspricht. Das bedeutet, dass der minimale Kreis ohne Bewegung des Sensors einen Durchmesser von mindestens 43,3 mm haben muss. Die Pentax K-1 verfügt über eine Bildstabilisierung mit Sensorverschiebung, die Bewegungen von bis zu 1,5 mm in jede Richtung ermöglicht. Der Sensor kann sich also in einem Abstand von 36 + 1,5 + 1,5 x 24 + 1,5 + 1,5 oder 39 × 27 mm befinden. Das bedeutet, dass der minimale Bildkreisdurchmesser zur Vermeidung von Problemen 47,4 mm beträgt - etwas größer, aber nicht dramatisch.

Die Auflösung des aus dem Kreis ausgeschnittenen Sensors ist jedoch immer noch dieselbe. Es ist nur ein bisschen verschoben.

Es ist eigentlich ziemlich einfach, einige Beispiele zu finden, die das Bildkreiskonzept demonstrieren, da manchmal Objektive für kleinere Sensoren bei Kameras mit größeren Sensoren verwendet werden, was zu einer Abdeckung von weniger als dem gesamten Bild führt. Hier ist ein Beispiel von dieser Website ... achten Sie nicht zu sehr auf die Bildqualität, da dies eindeutig eine Testaufnahme ist, die durch ein Glasfenster (sogar mit einer Fensterscheibe) gemacht wurde. Aber es veranschaulicht das Konzept:

Bild von Raj, von /photo/24755/why-does-my-nikkor-12-24mm-lens-vignette-on-my-nikon-d800#

Sie können den von der Linse projizierten runden Kreis sehen. Es ist oben abgeschnitten, weil der Sensor breiter als hoch ist. Dieser Sensor misst (ungefähr) 36 × 24 mm, aber das Objektiv ist für einen kleineren 24 × 16 mm-Sensor ausgelegt, sodass wir diesen Effekt erzielen.

Wenn wir das Original nehmen und ein rotes Kästchen zeichnen, das die Größe des kleineren "richtigen" Sensors umreißt, sehen wir:

mit Rahmen

Wenn das Objektiv mit der "richtigen" Kamera aufgenommen worden wäre, wäre das gesamte Bild der Bereich innerhalb der Box gewesen:

Bild von Raj, beschnitten

Sie haben wahrscheinlich von " Crop Factor " gehört. Das ist buchstäblich so.

Wenn IBIS den Sensor ziemlich viel bewegen muss (hier derselbe relative Betrag wie die 1,5-mm-Verfahrgrenze bei Pentax-Vollbildern), wird dies möglicherweise angezeigt, wobei die hellere rote Linie die ursprüngliche Position und die neue die neue darstellt Verschiebung. Sie können sehen, dass sich die Ecke zwar nähert, sich aber immer noch im Kreis befindet:

Verschiebung

Daraus resultiert dieses Bild:

Verschiebung und Ernte

Wenn Sie sich die äußerste rechte untere Ecke ansehen, gibt es tatsächlich ein wenig Schattierung, die nicht vorhanden sein sollte - dieses erfundene Beispiel geht etwas zu weit. Im Extremfall eines Objektivs, das so konstruiert ist, dass es die Kanten des Minimums verschiebt (um Kosten, Gewicht, Größe usw. zu sparen), wenn das IBIS-System die extremste Verschiebung ausführen muss, ist es tatsächlich möglich, erhöhte Artefakte wie z Dies in den betroffenen Ecken des Bildes. Aber das ist ein seltener Randfall im wirklichen Leben.

Wie Michael Clark bemerkt, ist es im Allgemeinen richtig, dass die Bildqualität in der Nähe des Objektivrandes abnimmt. Wenn Sie eine maximale Auflösung (im Sinne von erfassten Details ) anstreben, kann sich eine Verschiebung außerhalb der Mitte darauf auswirken. In Bezug auf die erfassten Pixel ist die Anzahl jedoch identisch.

Zusätzlich zum Problem der Zentrierung kann dies auch Auswirkungen auf die Komposition haben: Wenn Sie sehr vorsichtig sein möchten, etwas von einer Kante des Rahmens einzuschließen oder auszuschließen, aber nicht stillhalten, können Sie etwa 5% von der Position entfernt sein Sie dachten, Sie wären. Aber wenn Sie nicht still halten, können Sie das natürlich nur durch Bewegung erreichen.

Tatsächlich nutzt Pentax dies (zumindest), um eine neuartige Funktion anzubieten: Sie können eine Einstellung verwenden, um den Sensor absichtlich zu verschieben und eine andere Zusammensetzung zu ermöglichen (genau wie eine kleine Verschiebung von einer Balgkamera oder einem Tilt-Shift-Objektiv ). Dies kann besonders bei der Architekturfotografie nützlich sein. (Sehen Sie dies in Aktion in diesem Video .)

Außerdem: Es lohnt sich darüber nachzudenken, was im Verlauf der Belichtung vor sich geht . Das Ziel ist es, Unschärfe zu reduzieren, oder? Wenn die Kamera vollkommen ruhig ist (und natürlich einen perfekten Fokus voraussetzt), wird jede Lichtquelle im Bild an eine Stelle verschoben, was zu einer perfekt scharfen Zeichnung dieser Quelle in Ihrem Bild führt. Aber lassen Sie uns eine ziemlich lange Verschlusszeit von einer halben Sekunde untersuchen, während der sich die Kamera bewegt. Dann bekommen Sie so etwas:

"Define Camera Shake" von Suwatch auf Flickr;  CC-BY 2.0 https://www.flickr.com/photos/96081541@N00/1271011228

… Wo die Bewegung der Kamera während der Belichtung dazu geführt hat, dass sie Linien anstelle von Punkten zeichnet. Um dies zu kompensieren, springt die Bildstabilisierung, ob im Objektiv oder mit Sensorverschiebung, nicht einfach an einen neuen Ort. Es folgt (so gut es geht) dieser möglicherweise unregelmäßigen Bewegung, wenn der Verschluss geöffnet ist. Bei Videos können Sie dies softwarebasiert korrigieren, indem Sie die Unterschiede Frame für Frame vergleichen. Für eine einzelne fotografische Belichtung gibt es so etwas nicht, daher kann es nicht wie in Ihrem Zitat oben in dieser Antwort funktionieren. Stattdessen benötigen Sie eine ausgeklügelte mechanische Lösung.

Bitte lesen Sie mein Profil
quelle
1
Schöne Beispielbilder. Ich würde wieder abstimmen, wenn ich könnte.
Michael C
4

Sowohl IBIS als auch Lens Based IS (LBIS) haben ihre eigenen Vor- und Nachteile. Was "besser" ist, hängt von einer großen Anzahl von Variablen ab. Die Hierarchie dieser Variablen unterscheidet sich von Fotograf zu Fotograf und sogar von einem bestimmten Foto zum nächsten. Wie bei vielen Dingen in der Fotografie zahlen Sie Ihr Geld und treffen Ihre Wahl, von der Sie glauben, dass sie für Sie und die Arten von Fotos, die Sie machen möchten, besser funktioniert .

Die Antwort von mattdm erklärt sehr gut, dass der Bildkreis größer sein muss als die Diagonale des Sensors, damit IBIS funktioniert. Die Folge davon ist, dass beim Verschieben des Sensors die Mitte der optischen Achse der Linse auf einen anderen Punkt als auf die Mitte des Sensors projiziert. Somit ist eine Kante (oder Ecke) des Sensors ist an einer Kante des Bildkreises näher als wenn der Sensor zentriert ist. Der Hauptnachteil dabei ist natürlich, dass die Kanten von Bildkreisen optisch normalerweise nicht so gut sind wie die Mitte von Bildkreisen. Am Rand des Bildkreises treten normalerweise mehr Verzerrungen, mehr Lichtabfall, geringere Auflösung usw. auf als in der Mitte.

Reduziert IBIS die Bildauflösung?

Wenn das Objektiv bei den meisten Objektiven den Sensor an den Rändern des Bildkreises nicht auflösen kann , befindet es sich auf einer Seite des Rahmens. Auf der anderen Seite des Rahmens wird die Auflösung geringfügig erhöht, wobei sich die Kante / Ecke des Sensors näher an der Mittelachse des Objektivs befindet. Auf Fotos kann es auffallen, wenn die Auflösung am äußersten Rand des Bildkreises eines Objektivs ausreichend niedriger ist als die Auflösung am Punkt im Bildkreis, der auf den Rand / die Ecke des Sensors projiziert würde, wenn der Sensor zentriert ist die optische Achse des Objektivs.

Wenn andererseits die Linse den Sensor auch am Rand des projizierten Lichtkreises noch auflösen kann, ist kein Unterschied erkennbar. Die offensichtliche Erkenntnis ist, dass bei einem Sensor mit sehr hohen Megapixeln und sehr kleinen Fotoseiten die Effekte deutlicher sind als bei Verwendung einer Kamera mit viel größeren Fotoseiten (Pixelvertiefungen), die die Grenzen der Objektivfähigkeiten nicht aufzeigen können.

Der Hauptvorteil von IBIS, den Vermarkter bewarben, besteht darin, dass es mit allen Objektiven verwendet werden kann.¹ Ältere ältere Objektive können jedoch kleinere Bildkreise aufweisen als neuere Objektive, die für eine Kamera mit IBIS entwickelt wurden. Dies ist kein Problem, wenn die älteren Objektive für 35-mm-Filme im 135-Format geeignet sind und die Kamera über einen APS-C-Sensor verfügt. Es kann jedoch ein Problem sein, wenn es sich bei der Kamera um eine Vollbild-Digitalkamera im 135-Format (36 x 24 mm) mit IBIS handelt. Derzeit liegt der Hauptvorteil von IBIS in der Fähigkeit, Kamerabewegungen auf Achsen zu korrigieren, die durch objektivbasierte IS nicht kompensiert werden können. Der Hauptnachteil von IBIS besteht darin, dass längere Brennweiten, die IS am meisten benötigen, den geringsten Nutzen aus IBIS ziehen, da dieselbe Sensorbewegung mit einem längeren Teleobjektiv weniger Kamerabewegungen entgegenwirken kann als mit einem Weitwinkelobjektiv.

Beim Linsen-basierten IS führen die Bewegungen des IS-Elements / der IS-Gruppe zu einer leichten Fehlausrichtung des Objektivs. Dies wird als akzeptabel angesehen, wenn die durch die weniger als "perfekte" optische Ausrichtung des Objektivs² verursachte Unschärfe², die durch eine IS-Bewegung hervorgerufen wird, geringer ist als die Unschärfe, die sonst durch die Bewegung des Objektivs / der Kamera verursacht würde. Der größte Vorteil von LBIS besteht darin, dass bei engen Blickwinkeln (langen Brennweiten) viel mehr Korrekturen vorgenommen werden können als durch Verschieben eines Sensors, der sowohl durch die Größe des Bildkreises als auch durch die Geschwindigkeit und Entfernung, in der er sich befindet, begrenzt ist -Kameraservos können den Sensor bewegen, bleiben jedoch relativ kompakt und effizient in Bezug auf Batterie / Energieverbrauch / Kosten.

¹ Angeblich führt dies zu günstigeren Objektiven für Systeme, die IBIS verwenden, im Vergleich zu Systemen, die IS-Objektive verwenden. Probieren Sie eine Übersicht über vergleichbare Objektive aus, z. B. die EF-IS-Objektivreihe von Canon oder die F-Mount-VR-Objektivreihe von Nikon und die Nicht-IS-A-Mount- und frühen Nicht-IS-E-Mount-Objektive von Sony mit IBIS. Sie könnten versuchen, Ihnen das Argument zu verkaufen, dass das Einsetzen einer Stabilisierung (und sogar eines Fokusmotors) in das Kameragehäuse die nicht stabilisierten Objektive (manchmal ohne Fokusmotor) billiger macht, aber ein vergleichender Blick auf die Preise von Sonys nicht Stabilisierte Objektive im Vergleich zu stabilisierten Objektiven von Canon / Nikon weisen darauf hin, dass zwischen den ansonsten vergleichbaren Objektiven kaum Preisunterschiede bestehen.
² Selbst unter Nicht-IS-Prime-Objektiven gibt es keine „perfekt“ ausgerichtete Verbundlinse. Es sind immer Fertigungstoleranzen zu berücksichtigen.

Michael C.
quelle
Vermutlich verringern die Änderungen der Linsenausrichtung in LBIS auch die Auflösung, obwohl dies wahrscheinlich auf komplizierte und linsenabhängige Weise geschieht.
Bitte lesen Sie mein Profil
@mattdm Das steht im letzten Absatz der Antwort.
Michael C
Ja, ich weiß, ich denke nur, dass es expliziter formuliert werden könnte?
Bitte lesen Sie mein Profil
Da es sich bei der Frage hauptsächlich um IBIS handelt und die Einzelheiten von LBIS viel stärker von der Linse abhängen (und daher stärker involviert sind), möchte ich die Antwort nicht wirklich aufblähen, sodass 80% der Informationen tangentialer sind als der Teil, der tangentialer ist beantwortet tatsächlich die Frage.
Michael C
Der Grund, warum ich es für wichtig halte, ist, dass ich nicht möchte, dass die Leute das Missverständnis bekommen, dass das Verschieben des Sensors in dieser Hinsicht notwendigerweise schlimmer ist.
Bitte lesen Sie mein Profil
1

Der Sensor bewegt sich mit und nicht gegen das vom Objektiv projizierte Bild und solange er sich nicht so weit von der Mitte entfernt, dass er den Abbildungskreis des Objektivs verlässt (oder in seine Ränder eintritt, wo über tolerierbare Bildfehler auftreten ) sollte es kein Problem geben. Tatsächlich nutzen einige Kameras den beweglichen Sensor, um die Auflösung zu erhöhen, indem sie Mehrfachbelichtungen aufnehmen, wobei der Sensor jedes Mal um ein halbes Pixel verschoben wird und dann die Pixel verschachtelt werden (sogenannter Pixelverschiebungsmodus).

Rackandboneman
quelle
Die Linse und der Körper sind miteinander verbunden. Sie bewegen sich nicht relativ zueinander. Der Bildkreis "bewegt" sich nicht. Der Inhalt des Abbildungskreises ändert sich.
Xiota
1
Sensor bewegt sich mit IBIS relativ zum Körper, nein?
Rackandboneman
1
Der Bildkreis bewegt sich nicht relativ zum Objektiv und zum Kameragehäuse, aber der Inhalt der im Bildkreis enthaltenen Szene bewegt sich, wenn sich die Kamera / das Objektiv bewegt, und genau das versucht der Sensor zu verfolgen, indem er sich in die entgegengesetzte Richtung bewegt Die Kamera bewegt sich in derselben Richtung, in der sich die Details in der Szene relativ zur Position des gesamten Bildkreises bewegen.
Michael C