In welcher Beziehung steht die Hintergrundunschärfe (Bokeh) zur Sensorgröße?

20

Dies ist eine etwas theoretische Frage.

Angenommen, ich mache zuerst ein Foto eines Motivs mit einer DSLR-Vollbildsensor-Kamera und einem gegebenen Objektiv (z. B. 50-mm-Prime-Objektiv bei 1: 3,5).

Angenommen, ich tausche die Kamera gegen eine APS-C-Sensor-DSLR (mit 1,6-fachem Crop-Faktor). Ich behalte das gleiche Objektiv (gleiche Brennweite, gleiche Blende) und trete einige Meter zurück, um das Sichtfeld beizubehalten (mindestens die gleiche Vergrößerung des Motivs). Ich mache jetzt ein zweites Foto.

Die Schärfentiefe zwischen den beiden Fotos hat deutlich zugenommen. Aber was ist mit Hintergrundunschärfe (zum Beispiel Bäume im Unendlichen)? Habe ich die gleiche Menge an Hintergrundunschärfe oder hat sich das geändert?

Ich habe irgendwo gelesen, dass die Hintergrundunschärfe von der Größe der physischen Blende abhängt. In diesem Fall bleibt die physikalische Blende (physikalische Brennweite geteilt durch Blende) gleich. Aber sollte diese Zahl in Bezug auf die Sensorgröße genommen werden? In diesem Fall ist die physikalische Apertur mit dem kleineren APS-C-Sensor relativ groß, was zu mehr Hintergrundunschärfe führen würde. Dies wäre eher kontraintuitiv, da wir es normalerweise für schwieriger halten, Hintergrundunschärfen bei einer APS-C-Kamera zu erzielen.

Bitte begründen Sie die Antwort. Ich würde die Frage mit diesem Hintergrundunschärferechner selbst beantworten , aber ich schaffe es nicht, sie auf meinem Computer zum Laufen zu bringen.

Laurent
quelle
1
Ich denke, diese Frage ist wirklich in dieser behandelt: photo.stackexchange.com/questions/3986/…
rfusca
2
@ rfusca: Ich bin mir nicht sicher, ob ich damit einverstanden bin. Dies ist eine spezielle Frage zu einem generischen Konzept, und ich denke, es muss separat behandelt werden, da das Konzept viel allgemeiner und das Kameramodell spezifischer ist. Übrigens eine interessante Frage - ein gleich großer Verwirrungskreis auf einem kleineren Sensor, der mehr vom Bild als von den Rückschritten ergibt, die Sie möglicherweise machen oder nicht (ich weiß es ehrlich nicht und freue mich darauf, die Antworten zu lesen), wirkt dem entgegen Dies gilt insbesondere für den näher an der Unendlichkeit liegenden Fokus. Neugierig!
Lindes
3
Sie sind zurückgetreten und haben neu fokussiert. Dies bedeutet eine längere Fokussierungsentfernung und einen größeren DOF. Wenn Sie zurückgetreten sind, aber nicht neu fokussiert haben, ist der DOF derselbe , aber Ihr Motiv ist natürlich unscharf. Denken Sie darüber nach, wenn Ihr Objektiv nichts tut , ändert das Hin- und Herbewegen der gesamten Kamera niemals den DOF. In dem Moment, in dem Ihr Objektiv neu fokussiert, ist die Fokussierungsentfernung unterschiedlich.
Gapton
"Ich behalte das gleiche Objektiv (gleiche Brennweite, gleiche Blende) und trete einige Meter zurück, um das Sichtfeld beizubehalten ..." Wenn Sie die gleiche Brennweite mit einem Sensor unterschiedlicher Größe verwenden, ändern Sie das Feld von Aussicht. Wenn Sie dann zurücktreten, um das Motiv in etwa gleich groß zu machen, ändern Sie das Sichtfeld nicht wieder auf das, was Sie zuvor hatten, sondern nur den Abstand zum Hintergrund.
Michael C
1
@lindes Wenn beide Bilder mit der gleichen Anzeigegröße angezeigt werden sollen, muss das Bild des kleineren Sensors stärker vergrößert werden als das Bild des größeren Sensors. Daher muss der CoC auch für das Bild des kleineren Sensors kleiner sein. Letztendlich basiert CoC auf dem prozentualen Anteil der Bildgröße - normalerweise dem Maß der Diagonale. Wenn ein Sensor halb so groß und halb so breit ist, muss der verwendete CoC auch halb so groß sein wie der vom größeren Sensor verwendete, um die gleiche Winkelgröße zu erhalten, nachdem er doppelt so groß vergrößert wurde, um bei der gleichen spezifischen Anzeigegröße angezeigt zu werden.
Michael C

Antworten:

4

Es hängt davon ab, wie groß Ihre "unendliche" Distanz wirklich ist. Wenn Sie sich vom Motiv zurückbewegen, um die gleiche Vergrößerung beizubehalten, wird der relative Abstand zu einem Hintergrundobjekt kleiner, sodass es weniger unscharf wird.

Nehmen wir zum Beispiel an, Sie beginnen mit dem Motiv, das 10 Fuß entfernt ist, und der Hintergrund der "unendlichen" Entfernung ist wirklich 100 Fuß entfernt. Wenn Sie zur APS-C-Kamera wechseln, können Sie (je nach Kameramarke) bis zu 15 oder 16 Fuß zurücklegen. Im ersten Fall waren die Bäume zehnmal weiter entfernt als das Motiv (und der Fokuspunkt). Im zweiten Fall befindet sich das Motiv bei 15 Fuß und der Hintergrund bei 115 Fuß, sodass der Hintergrund weniger als achtmal so weit vom Fokuspunkt entfernt ist.

Wenn Ihre "unendliche" Distanz wirklich viel größer ist, kann dieser Effekt zu klein werden, um sich darum zu kümmern. Wenn Sie mit einem Hintergrund beginnen, der 10000-mal weiter entfernt ist als das Motiv, bewegen Sie ihn so, dass er nur 9999-mal weiter entfernt ist. Der Unterschied ist wahrscheinlich so gering, dass Sie ihn nicht sehen oder sogar messen können.

Jerry Sarg
quelle
4

Die Hintergrundunschärfe hängt von Ihrer Schärfentiefe ab. Schärfentiefe (DOF) ist die Entfernung zwischen dem nächsten und dem am weitesten entfernten Objekt in einer Szene, die in einem Bild akzeptabel scharf erscheint ( Wikipedia ). Durch die geringe Schärfentiefe können Sie Ihr Motiv isolieren: Das Motiv ist scharf und der Hintergrund unscharf. Die Schärfentiefe hängt von mehreren Faktoren ab:

  1. Objektivbrennweite (35 mm, 200 mm, 50 mm)
  2. Linsenöffnung (f1.8, f5.6, f8)
  3. Sensorgröße (APS-C, 35 mm, Mittelformat, Großformat)
  4. Motiventfernung und das Verhältnis von Motiventfernung zu Hintergrundentfernung

Mit (1) ist der DOF umso dünner, je länger die Brennweite ist. Mit (2) gilt: Je größer die Apertur (kleinere Zahl), desto dünner der DOF. Mit (3) gilt: Je größer der Sensor, desto dünner der DOF. Mit (4) gilt: Je näher das Motiv, desto dünner der DOF.

Beispiel: Wenn Sie ein 200-mm-Objektiv, z. B. f2.8, auf einem 35-mm-Vollbildsensor haben und das Motiv in Ihrer Nähe ist (2-3 m), können Sie den Hintergrund ziemlich verwischen.
Wenn Sie umgekehrt ein 35-mm-Objektiv bei f8 auf einer beschnittenen DSLR-Kamera (APS-C) haben und das Motiv 6 m von Ihnen entfernt ist, wird der Hintergrund nicht wirklich unscharf.

*** Ich bin mir nicht ganz sicher, ob dies theoretisch korrekt ist, aber in der Praxis hat das FF-Bild bei gleichem Setup für APS-C-Sensor und Vollbild einen flacheren DOF.

Lesen Sie mehr: http://en.wikipedia.org/wiki/Depth_of_field

JoséNunoFerreira
quelle
Ich habe vergessen: Wenn der Hintergrund weiter vom Motiv entfernt ist, wird er unschärfer und umgekehrt.
JoséNunoFerreira
1
Ich habe es gefunden: fcalc.net/online
JoséNunoFerreira
4
Wenn Sie über Faktoren sprechen, die die Schärfentiefe beeinflussen, müssen Sie unbedingt angeben, was Sie im Vergleich beibehalten und was Sie unterscheiden dürfen. Für mich ist es sinnvoll, Blickwinkel und Motivabstand gleich zu halten (damit Sie jeweils dem gleichen Foto möglichst nahe kommen). Wenn Sie eine DSLR mit einer Kompaktkamera vergleichen, würden Sie bei der DSLR kein 10-mm-Objektiv verwenden, nur weil die Kompaktkamera ein 10-mm-Objektiv hat. Sie würden einen verwenden, der den gleichen Blickwinkel bietet. Wenn Sie also die Brennweite ändern, um den Blickwinkel beizubehalten, ändert sich der DOF mit der Sensorgröße.
Matt Grum
2
Ich würde eher mit der anfänglichen Aussage "Hintergrundunschärfe hängt von der Schärfentiefe ab" nicht einverstanden sein. DOF allein bestimmt nicht die Hintergrundunschärfe, wie hier auf den Fotos zu sehen ist (identischer DOF, aber unterschiedliche Hintergrundunschärfe): bobatkins.com/photography/technical/bokeh_background_blur.html
Laurent
1
Wenn Sie hier nachsehen : bobatkins.com/photography/technical/bokeh.html und nach unten zur Tabelle scrollen, erhöht sich in den ersten drei Fällen der DOF und gleichzeitig die Hintergrundunschärfe. Die 2 sind also wirklich ziemlich unabhängig.
Laurent
4

Theoretisch haben Sie in beiden Fällen genau die gleiche Hintergrundunschärfe. In der Praxis funktioniert dies nur, wenn der Hintergrund sehr weit entfernt ist (viel weiter als Ihr Thema), wie von Jerry Coffin hervorgehoben. Wenn diese Bedingung nicht erfüllt ist, gibt der APS-C-Körper etwas weniger Hintergrundunschärfe.

Der einfachste Weg, dies zu verstehen, besteht darin, ein Hintergrundlicht als Punktquelle im Unendlichen zu modellieren, das auf dem Bild als „Bokeh-Scheibe“ gerendert wird. Das Ausmaß der Hintergrundunschärfe kann anhand des Verhältnisses des Durchmessers dieser Disc zur Gesamtbildgröße gemessen werden. Dieses Verhältnis ist zufällig dasselbe wie das Verhältnis zwischen dem Durchmesser der Eintrittspupille und der Größe des Sichtfelds in der Entfernung, in der die Linse fokussiert ist.

Unten ist mein beschissener Schaltplan. Hoffe das macht die Sache klarer. Raytracing-Schema Bedenken Sie, dass das Bild, das Sie erhalten, nur eine verkleinerte Version dessen ist, was Sie in der Fokusebene haben. Der rote Strahl ist der Lichtstrahl, der von der Punktquelle kommt und durch die Eintrittspupille geht. Das Zeug, das ich als "Bokeh-Scheibe" bezeichnet habe, ist dort, wo dieser Strahl die Fokusebene schneidet. Es hat genau den gleichen Durchmesser wie die Eintrittspupille, vorausgesetzt, die Quelle ist weit genug und es ist das objektseitige Gegenstück der Bokeh-Scheibe. Die eigentliche Bokeh-Disc befindet sich im Image-Bereich und ist das Image der hier gezeichneten Disc.


Bearbeiten : Der Ansatz, den ich hier verwende, basiert nur auf objektseitigen Parametern: dem Sichtfeld und dem Durchmesser der Eintrittspupille. Diese Auswahl vereinfacht häufig die Berechnung der Unschärfe (einschließlich der Schärfentiefe) im Vergleich zu herkömmlichen Ansätzen, bei denen das Sensorformat, die Brennweite und die Blendenzahl zum Einsatz kommen: Diese Parameter für die „dunkle Seite“ werden nicht benötigt, sobald die objektseitigen Parameter bekannt sind .

Für diejenigen, die mit dieser Denkweise „außerhalb der Box“ nicht vertraut sind, empfehle ich den Artikel „ Schärfentiefe außerhalb der Box“ von Richard F. Lyon. Obwohl sich dieser Artikel hauptsächlich mit dem Thema Schärfentiefe befasst, ist der Ansatz sehr allgemein und kann sehr einfach auf die Berechnung von Hintergrundunschärfe angewendet werden.

Edgar Bonet
quelle
Mit anderen Worten, der Durchmesser der "Bokeh" -Scheibe beträgt pupil_diameter × magnification.
Edgar Bonet
Verändert eine Änderung der Sensorgröße (und der sich daraus ergebenden Änderung des Blickwinkels) nicht die Vergrößerung, wenn Bilder von beiden Sensoren mit derselben Anzeigegröße angezeigt werden? Wenn die Eintrittspupille dieselbe Größe hat, der Blickwinkel jedoch enger ist, macht die "Bokeh" -Scheibe dann nicht einen größeren Prozentsatz des gesamten Rahmens aus (und dieser Unschärfe)? Letztendlich umfasst die Vergrößerung das Vergrößerungsverhältnis zwischen der Film- / Sensorgröße und der Anzeigegröße. Also, wenn die Pupillengröße konstant bleibt (gleiche Brennweite und Blendenzahl), aber die Vergrößerung erhöht wird (Vergrößerung eines Bildes von einem kleineren Sensor auf die gleiche Größe)
Michael C
(Forts.), dann nimmt der Durchmesser der "Bokeh" -Scheibe zu und das mit dem kleineren Sensor aufgenommene Bild ist unschärfer (wenn die Punktlichtquelle wirklich unendlich ist - ist es aber normalerweise nicht).
Michael C
@MichaelClark: 1. Unter den Bedingungen der Frage (gleiches FoV in der Fokusebene) würde die Bildvergrößerung des Subjekts zum Sensor geändert, nicht jedoch die Bildvergrößerung des Subjekts zur Anzeige. 2. Nein.
Edgar Bonet
Die Frage ist falsch, wenn behauptet wird, dass man dasselbe Objektiv mit gleicher Brennweite für einen Sensor unterschiedlicher Größe verwenden und den gleichen Blickwinkel erhalten kann. Sie müssen das eine oder andere ändern (Brennweite oder AoV).
Michael C
2

Ja, Bokeh ist tatsächlich proportional zur physischen Breite der Linsenöffnung.

Nehmen wir an, Sie fokussieren auf ein Nahfeldobjekt in endlicher Entfernung = Z und haben eine Kamera / Objektiv-Kombination, die Ihnen ein Sichtfeld (FOV) mit eckiger Halbwertsbreite = Q Grad bietet. Wenn Sie Bokeh als das Verhältnis des Durchmessers des Unschärfekreises B (unscharfes Bild eines Hintergrundpunktes im Unendlichen) zur Breite des Bildrahmens W definieren, dann

                     bokeh   =   B / W    ~    R / ( Z  * tanQ )

wobei R der Radius der Objektivöffnung ist - dh der halbe Durchmesser (Hinweis: In der obigen Gleichung sollte Z technisch Z - F sein, wobei F die Brennweite des Objektivs ist, aber Sie können das F normalerweise ignorieren, wenn Sie weit schauen -weges Objekt).

Wenn Sie also zwei Kameras haben, eine große DSLR-Kamera und eine kleine Kamera, beide mit demselben Blickwinkel (dh Objektive haben dasselbe 35-mm-Äquivalent), erhalten Sie mit der Kamera mit dem Objektiv mit dem größeren Durchmesser mehr Bokeh. Dies ist unabhängig von der Größe des Kamerasensors.

Eric Bucsela
quelle
Bei der obigen Frage wird davon ausgegangen, dass bei beiden Kameras dasselbe Objektiv in einem unterschiedlichen Motivabstand verwendet wird, um das nahe Motiv auf die gleiche Größe zu bringen. Können Sie Ihre Antwort ändern, um der Annahme in der Frage Rechnung zu tragen?
Michael C
1

Die Schärfentiefe hängt von zwei Faktoren ab: Entfernung zum Motiv und physikalische Blendengröße (berechnet durch die Brennweite geteilt durch die Blendenzahl). Die Schärfentiefe nimmt mit zunehmender Entfernung von Ihrem Motiv zu und mit zunehmender Größe der physischen Blende ab . Die Sensorgröße wirkt sich nicht direkt auf das Bokeh aus, da sich das vom Objektiv projizierte Bild nicht ändert, wenn es auf einem anderen Sensorformat verwendet wird. Unterschiedliche Sensorformate verwenden einfach unterschiedliche Teile des Bildkreises. Größere Sensoren ermöglichen eine geringere Schärfentiefe, da eine größere Brennweite erforderlich ist, um dasselbe Sichtfeld zu erreichen, und eine größere Brennweite zu einer größeren physikalischen Apertur und damit zu einer geringeren Schärfentiefe führt.

Daher hat dasselbe Objektiv mit derselben Blende bei gleicher Fokussierentfernung auf zwei verschiedenen Sensorformaten keinen Einfluss auf den Grad der Hintergrundunschärfe. Es sind die Anpassungen, die durch die verschiedenen Sensorformate (verringerte Entfernung zum Motiv oder vergrößerte Brennweite bei Vollbild im Vergleich zu APS-C) erforderlich sind, die den Unterschied in der Schärfentiefe hervorrufen.

bwDraco
quelle
1
Es ist auch die erhöhte Vergrößerung, die erforderlich ist, um das Bild des kleineren Sensors mit derselben Anzeigegröße wie das Bild des größeren Sensors anzuzeigen. Daher muss der zur Berechnung des DoF für Bilder vom kleineren Sensor verwendete Verwirrungskreis kleiner sein, damit er dieselbe Winkelgröße aufweist wie der für Bilder vom größeren Sensor verwendete CoC, nachdem beide um unterschiedliche Beträge vergrößert wurden, um gleichzeitig betrachtet zu werden Größe.
Michael C
1

In den vorherigen Antworten wurde viel gesagt, und ich möchte nur einen visuellen Vergleich der spezifischen Objektiveinstellungen hinzufügen, über die Sie in Ihrer Frage sprechen. Wie bereits erwähnt, hängt das Ausmaß der Hintergrundunschärfe auch von der Motivgröße ab. Diese Handlung ist für ein Porträt von Kopf und Schultern.

Vergleichsgraph http://files.johannesvanginkel.nl/se_plot.JPG

Wie zu sehen ist, weist die FF-Kamera mehr Hintergrundunschärfe auf, ihre Werte konvergieren jedoch am Ende.

Bildquelle: http://howmuchblur.com/#compare-1x-50mm-f3.5-and-1.6x-50mm-f3.5-on-a-0.9m-wide-subject

Hier können Sie auch eine andere Motivgröße einstellen, wenn Sie möchten.

mmumboss
quelle
1

"In welcher Beziehung steht die Hintergrundunschärfe (Bokeh) zur Sensorgröße?"

Kurze Antwort: Ein größerer Sensor hat einen größeren Verwirrungskreis, eine wichtige Überlegung bei der Berechnung der Schärfentiefe (DOF), und bewirkt daher, dass eine größere Blende (größere Öffnung) einen ausreichend flachen DOF aufweist, um die Unschärfe des Punktes zu ermöglichen Quellen (kleine Lichter) im Hintergrund; Erstellen eines Effekts, der oft (fälschlicherweise) als Bokeh bezeichnet wird.

Es gibt kaum einen Unterschied, den ich später erläutere, wenn entsprechende Anpassungen vorgenommen werden, um einen ähnlichen Rahmen beizubehalten.

Bokeh ist eine Unschärfe, die auch im Vordergrund auftreten kann und nicht auf entfernte Glühbirnen beschränkt sein muss, obwohl einige die Verwendung dieses Begriffs nur auf diese Bedingungen beschränken. Es ist einfacher, die Qualität von Bokeh zu beurteilen, indem Sie die Lichtpunkte im Hintergrund betrachten und feststellen, ob sie wie runde, glatte Scheiben aussehen. Der Hintergrund ist nicht der einzige Ort, an dem Bokeh auftritt.

Der Begriff Bokeh kommt vom japanischen Wort Boke (暈 暈 oder ボ ボ), was "Unschärfe" oder "Dunst" oder Boke-Aji (ボ ボ ケ), die "Unschärfe-Qualität", bedeutet. [Anmerkung: Es hat nichts mit winzigen Lichtern oder Hintergrund vs. Vordergrund zu tun, es ist die Qualität der Unschärfe außerhalb der Schärfentiefe. Im Gegensatz dazu ist der Fokus die Schärfe innerhalb der Schärfentiefe, insbesondere im Brennpunkt.

Nun, bist du nicht froh, dass das die Kurzversion war?

Das Bild wurde mit einer Nikon 200,0 mm 1: 2,0 auf einer Nikon D700 aufgenommen, die wohl zu den besseren Bokeh-Objektiven für die Fotografie gehört. Bildnachweis: Dustin Diaz .

Familie Rohe an der BART-Station Powell St.

Lizenz: Attribution-NonCommercial-NoDerivs 2.0 Generic (CC BY-NC-ND 2.0)

Es ist einfach, ein günstigeres Objektiv zu finden, und viele dieser Objektive ähneln diesen : Hexanon AR 135 / 3.2, Pentacon 135 / 2.8, Rokkor 135 / 2.8, Trioplan 100 / 2.8, Vivitar 135 / 2.8 ist (höflich) kreativer im Gegensatz zu Qualität und Sie benötigen einen Adapter zusammen mit Zuschneiden, wenn Sie einen großen Sensor verwenden. Ein kleiner Sensor und ein billiges Objektiv können für einige (viele?) Erfreuliche Ergebnisse liefern.

Das Merkmal des sogenannten perfekten Bokeh ist, dass Punktquellen runde Untertassen ohne Ringe oder Aberrationen auf der Scheibe und mit allmählichem Abfall am Rand erzeugen. Die Scheiben sollten mit einer sphärischen Linse von Rand zu Rand des Bildrahmens rund sein.

Zeiss Master Prime

Während anamorphotische Linsen charakteristische ovale Bokeh erzeugen.

Cooke anamorph


Lassen Sie uns ein paar Dinge definieren, bevor wir auf eine viel längere Erklärung eingehen.

  • Hintergrund: Der Bereich hinter dem Motiv des Bildes.

  • Vordergrund: Der Bereich vor dem Motiv des Bildes.

  • Unschärfe : Unvollkommenheit der Sicht verursachen, undeutlich oder verschwommen machen, undeutlich machen. Das Antonyme von Schärfen.

  • Bokeh : Die Qualität der Unschärfe der unscharfen Bereiche des Bildes außerhalb der Schärfentiefe, wenn das Objektiv korrekt auf das Motiv fokussiert ist.

  • Verwirrungskreis : In idealisierten Strahlenoptiken wird angenommen, dass Strahlen zu einem Punkt konvergieren, wenn sie perfekt fokussiert sind. Die Form eines Unschärfezwischenflecks von einer Linse mit kreisförmiger Apertur ist ein scharfkantiger Lichtkreis. Ein allgemeinerer Unschärfepunkt weist weiche Kanten aufgrund von Beugung und Aberrationen auf ( Stokseth 1969, Paywall ; Merklinger 1992, barrierefrei ) und kann aufgrund der Aperturform unrund sein.

    In Anbetracht der Tatsache, dass echte Objektive nicht alle Strahlen auch unter den besten Bedingungen perfekt fokussieren, wird der Begriff "Kreis der geringsten Verwirrung" häufig für den kleinsten Unschärfepunkt verwendet, den ein Objektiv erzeugen kann (Ray 2002, 89) ist ein guter Kompromiss zwischen den unterschiedlichen effektiven Brennweiten verschiedener Linsenbereiche aufgrund von sphärischen oder anderen Aberrationen.

    Der Begriff Verwirrungskreis wird allgemeiner auf die Größe des unscharfen Punkts angewendet, auf den eine Linse einen Objektpunkt abbildet. Es bezieht sich auf 1. Sehschärfe, 2. Betrachtungsbedingungen und 3. Vergrößerung vom Originalbild auf das endgültige Bild. In der Fotografie wird der Konfusionskreis (CoC) verwendet, um die Schärfentiefe, den Teil eines Bildes, der akzeptabel scharf ist, mathematisch zu bestimmen.

  • Schärfentiefe : Die Entfernung zwischen dem nächsten und dem am weitesten entfernten Objekt in einer Szene, die in einem Bild akzeptabel scharf erscheint. Obwohl ein Objektiv jeweils nur in einer Entfernung präzise fokussieren kann, nimmt die Schärfe auf jeder Seite der fokussierten Entfernung allmählich ab, so dass innerhalb des DOF ​​die Unschärfe unter normalen Betrachtungsbedingungen nicht wahrnehmbar ist.

  • Sensorgröße :

    • Fotografie: In der Fotografie wird die Sensorgröße basierend auf der Breite des Films oder der aktiven Fläche eines digitalen Sensors gemessen. Der Name 35 mm stammt von der Gesamtbreite des 135er-Films , dem perforierten Kassettenfilm, der vor der Erfindung der Vollbild-DSLR das Hauptmedium des Formats war. Das Format 135 wird weiterhin verwendet. In der digitalen Fotografie ist das Format als Vollbild bekannt geworden. Während die tatsächliche Größe der Nutzfläche eines fotografischen 35-mm-Films 24 W × 36 H mm beträgt, beziehen sich die 35 Millimeter auf die Abmessung 24 mm zuzüglich der Zahnkranzlöcher (die zum Vorschieben des Films verwendet werden).

    • Video : Sensorgrößen werden in Zoll angegeben, da sie zum Zeitpunkt der Verbreitung digitaler Bildsensoren als Ersatz für Videokameraröhren dienten. Die üblichen kreisförmigen 1 "-Videokameraröhren hatten einen rechteckigen fotoempfindlichen Bereich mit einer Diagonale von etwa 16 mm, so dass ein digitaler Sensor mit einer Diagonalen von 16 mm einem 1" -Videoröhrenäquivalent entsprach. Der Name eines 1-Zoll-Digitalsensors sollte genauer als "1-Zoll-Videokameraröhren-Äquivalent" -Sensor gelesen werden. Aktuelle Größenbeschreibungen für digitale Bildsensoren sind die Äquivalenzgröße der Videokameraröhre und nicht die tatsächliche Größe des Sensors. Beispiel: a 1 "Sensor hat eine Diagonale von 16 mm.

  • Betreff: Das Objekt, von dem Sie ein Bild aufnehmen möchten, nicht unbedingt alles, was im Rahmen angezeigt wird, ganz sicher keine Fotobomber , und häufig keine Objekte, die im äußersten Vordergrund und im äußersten Hintergrund angezeigt werden . daher die Verwendung von Bokeh oder DOF, um Objekte zu defokussieren, die nicht Gegenstand sind.

  • Modulationsübertragungsfunktion (MTF) oder räumliche Frequenzantwort (SFR): Die relative Amplitudenantwort eines Bildgebungssystems als Funktion der räumlichen Eingangsfrequenz. ISO 12233: 2017 legt Methoden zur Messung der Auflösung und des SFR von elektronischen Standbildkameras fest. Linienpaare pro Millimeter (lp / mm) waren die häufigste räumliche Frequenzeinheit für Filme, aber Zyklen / Pixel (C / P) und Linienbreiten / Bildhöhe (LW / PH) sind für digitale Sensoren praktischer.


Jetzt haben wir unsere Definitionen aus dem Weg ...

Aus Wikipedia:

CoC (mm) = Betrachtungsabstand (cm) / gewünschte endgültige Bildauflösung (lp / mm) für einen Betrachtungsabstand von 25 cm / Vergrößerung / 25

So unterstützen Sie beispielsweise eine endgültige Bildauflösung von 5 lp / mm für einen Betrachtungsabstand von 25 cm, wenn der erwartete Betrachtungsabstand 50 cm und die erwartete Vergrößerung 8 beträgt:

CoC = 50/5/8/25 = 0,05 mm

Da die endgültige Bildgröße zum Zeitpunkt der Aufnahme eines Fotos normalerweise nicht bekannt ist, wird üblicherweise eine Standardgröße wie 25 cm Breite zusammen mit einer herkömmlichen endgültigen Bild-CoC von 0,2 mm angenommen, was 1/1250 von entspricht die Bildbreite. Häufig werden auch Konventionen in Bezug auf das Diagonalmaß verwendet. Der mit diesen Konventionen berechnete DoF muss angepasst werden, wenn das Originalbild beschnitten wird, bevor es auf die endgültige Bildgröße vergrößert wird, oder wenn die Größen- und Betrachtungsannahmen geändert werden.

Unter Verwendung der „Zeiss-Formel“ wird der Verwirrungskreis manchmal als d / 1730 berechnet, wobei d das Diagonalmaß des Originalbilds (das Kameraformat) ist. Für das Vollformat 35 mm (24 mm × 36 mm, 43 mm Diagonale) ergibt sich ein Wert von 0,025 mm. Ein weiter verbreitetes CoC ist d / 1500 oder 0,029 mm für das Vollbildformat 35 mm, was einer Auflösung von 5 Linien pro Millimeter auf einem Druck von 30 cm Diagonale entspricht. Werte von 0,030 mm und 0,033 mm sind auch für das 35-mm-Vollformat üblich. Für praktische Zwecke ergeben d / 1730, ein Endbild-CoC von 0,2 mm und d / 1500 sehr ähnliche Ergebnisse.

Es wurden auch Kriterien verwendet, die CoC mit der Linsenbrennweite in Beziehung setzen. Kodak (1972), 5) empfahl 2 Bogenminuten (das Snellen-Kriterium von 30 Zyklen / Grad für normales Sehen) für die kritische Betrachtung und ergab CoC ≈ f / 1720, wobei f die Brennweite des Objektivs ist. Für ein 50-mm-Objektiv im 35-mm-Vollformat ergab sich ein CoC von 0,0291 mm. Dieses Kriterium ging offensichtlich davon aus, dass ein endgültiges Bild in „perspektivisch korrekter“ Entfernung betrachtet werden würde (dh der Blickwinkel wäre der gleiche wie der des Originalbilds):

Betrachtungsabstand = Brennweite des aufnehmenden Objektivs × Vergrößerung

Bilder werden jedoch selten im „richtigen“ Abstand angezeigt. Normalerweise kennt der Betrachter die Brennweite des Aufnahmeobjektivs nicht, und die „richtige“ Entfernung kann unangenehm kurz oder lang sein. Folglich sind Kriterien, die auf der Brennweite des Objektivs basieren, im Allgemeinen Kriterien (wie d / 1500) gewichen, die sich auf das Kameraformat beziehen.

Dieser COC-Wert gibt den maximalen Unschärfepunktdurchmesser an, der in der Bildebene gemessen wird und scharf zu sein scheint. Ein Fleck mit einem Durchmesser, der kleiner als dieser COC-Wert ist, erscheint als Lichtpunkt und daher im Bild scharf. Flecken mit einem größeren Durchmesser erscheinen dem Betrachter verschwommen.

  • Nicht-Symmetrie des DOF:

DOF ist nicht symmetrisch. Dies bedeutet, dass der Bereich mit akzeptablem Fokus vor und nach der Fokusebene nicht den gleichen linearen Abstand hat. Dies liegt daran, dass das Licht von näheren Objekten in einem größeren Abstand hinter der Bildebene konvergiert als der Abstand, den das Licht von weiter entfernten Objekten vor der Bildebene konvergiert.

Bei relativ geringen Abständen ist der DOF nahezu symmetrisch, wobei etwa die Hälfte des Fokusbereichs vor der Fokusebene und die andere Hälfte danach vorhanden ist. Je weiter sich die Fokusebene von der Bildebene entfernt, desto größer ist die Symmetrieverschiebung, die den Bereich jenseits der Fokusebene begünstigt. Schließlich fokussiert die Linse auf den Unendlichkeitspunkt und der DOF ist auf seine maximale Unsymmetrie eingestellt, wobei sich die überwiegende Mehrheit des fokussierten Bereichs außerhalb der Fokusebene bis zur Unendlichkeit befindet. Diese Distanz wird als " hyperfokale Distanz " bezeichnet und führt uns zu unserem nächsten Abschnitt.

Die hyperfokale Entfernung ist definiert als die Entfernung, wenn die Linse auf unendlich fokussiert ist, wobei Objekte von der Hälfte dieser Entfernung bis unendlich für eine bestimmte Linse fokussiert sind. Alternativ kann sich die Hyperfokalentfernung auf die nächste Entfernung beziehen, um die eine Linse für eine bestimmte Blende fokussiert werden kann, während Objekte in einer Entfernung (unendlich) scharf bleiben.

Die Hyperfokalentfernung ist variabel und eine Funktion der Apertur, der Brennweite und des zuvor erwähnten COC. Je kleiner Sie die Objektivblende einstellen, desto näher am Objektiv wird die Hyperfokalentfernung. Die Hyperfokaldistanz wird in den Berechnungen zur Berechnung des DOF ​​verwendet.

Aus Wikipedia:

Diese SE-Website scheint Mathjax nicht zu unterstützen

Es gibt vier Faktoren, die den DOF bestimmen:

  1. Verwirrungskreis (KKK)
  2. Blende der Linse
  3. Brennweite des Objektivs
  4. Fokusentfernung (Entfernung zwischen Objektiv und Motiv)

DOF = Fernpunkt - Nahpunkt

DOF, Nah- und Fernpunkt

DOF teilt dem Fotografen einfach mit, in welchen Abständen vor und hinter der Fokusentfernung Unschärfe auftritt. Es gibt nicht an, wie unscharf oder wie „hochwertig“ diese Bereiche sein werden. Das Design der Linse, das Design der Blende und Ihr Hintergrund bestimmen die Eigenschaften der Unschärfe - Intensität, Textur und Qualität.

Je kürzer die Brennweite Ihres Objektivs ist, desto länger ist der DOF.

Je länger die Brennweite Ihres Objektivs ist, desto kürzer ist der DOF.

Wie ändert sich der DOF, wenn die Sensorgröße in diesen Formeln nicht angezeigt wird?

Es gibt verschiedene Methoden, mit denen sich die Formatgröße in die DOF-Mathematik einschleicht:

Enlargement factor

Focal Length

Subject-to-camera / focal distance

Der Zuschnittsfaktor und die daraus resultierende Brennweite sowie die für die Lichtsammelfähigkeit des Sensors erforderliche Blende haben den größten Einfluss auf Ihre Berechnungen.

Ein Sensor mit höherer Auflösung und ein Objektiv mit besserer Qualität produzieren ein besseres Bokeh, aber auch ein Sensor und ein Objektiv in Handygröße können einigermaßen akzeptables Bokeh produzieren.

Die Verwendung eines Objektivs mit gleicher Brennweite bei einer APS-C und einer Vollbildkamera bei gleichem Abstand von Objekt zu Kamera erzeugt zwei unterschiedliche Bildrahmen und bewirkt, dass der DOF-Abstand und die Dicke (Schärfentiefe) unterschiedlich sind.

Wenn Sie zwischen einer APS-C- und einer Vollbildkamera umschalten, um identische Bilder zu erhalten, erhalten Sie einen ähnlichen DOF, wenn Sie die Objektive wechseln oder das Motiv entsprechend dem Zuschneidefaktor wechseln. Wenn Sie Ihre Position verschieben, um einen identischen Bildausschnitt beizubehalten, wird der Vollbildsensor (für einen größeren DOF) leicht bevorzugt. Nur wenn Sie die Linsen wechseln, um den Zuschnittsfaktor und den Bildausschnitt beizubehalten, erhält der größere Sensor einen engeren DOF (und nicht viel).

Es ist der Öffnungsvorteil, der den Vollbildsensor zu einer besseren und teureren Wahl macht, sowohl für Kameras und Objektive als auch häufig für Funktionen (FPS gehören nicht dazu, noch Größe und Gewicht).

Die Entscheidung für einen mittelgroßen Sensor gegenüber einem winzigen Sensor ist ein weiterer Vorteil des größeren Sensors, aber Bokeh ist wahrscheinlich nicht der beste Anwendungsfall, um den mehr als 20-fachen Preisunterschied zu rechtfertigen.

Die größere Anzahl von Pixeln pro Lichtpunkt erzeugt sicherlich ein gleichmäßigeres Bokeh, würde sich jedoch mit einer kleinen Sensorkamera annähern. Wenn Sie mit Ihren Fotos oder Videos Geld verdienen, können Sie die Proportionalität für die Verwendung teurerer Geräte erhöhen. Andernfalls sparen Sie durch ein wenig Beinarbeit oder zusätzliche kostengünstige Objektive eine Menge Geld bei der Investition in ein System mit größerem Format.


Wikipedia-Bereich: Vorder- und Hintergrundunschärfe .

Schauen Sie sich diesen Artikel " Staging Foregrounds " von RJ Kern über " Foreground Blur" an, der viele Fotos mit Hintergrund- und Vordergrundunschärfe enthält.

B & H hat einen dreiteiligen Artikel über DOF: Schärfentiefe, Teil I: Die Grundlagen , Teil II: Die Mathematik und Teil III: Die Mythen .

Am wichtigsten ist, dass "Bokeh" nicht einfach "Hintergrundunschärfe" ist, sondern alle Unschärfen außerhalb des DOF. sogar im Vordergrund . Es ist so, dass kleine Lichter in einiger Entfernung die Bokeh-Qualität leichter beurteilen können.

Vordergrund Bokeh

rauben
quelle
Dies ist eine sehr gründliche Darstellung des Themas Tiefenschärfe. Es ist auch schön illustriert. Als Antwort verfehlt es jedoch den Punkt der Frage, bei dem es speziell nicht um die Schärfentiefe geht. Die Frage ist nach dem Ausmaß der Unschärfe eines entfernten Hintergrunds, der, obwohl er tangential mit der Schärfentiefe zusammenhängt, dennoch ein ganz anderes Problem darstellt.
Edgar Bonet
Ja. Es ist eine sehr einfache Frage, und die Antwort für einen Hintergrund im Unendlichen (wie in der Frage angenommen) lautet ganz einfach: „ Ja, Sie haben die gleiche Menge an Hintergrundunschärfe “.
Edgar Bonet
Innerhalb der Definition des Verwechslungskreises : "... wegen Ungenauigkeiten in einer unvollkommenen Linse" ist nicht korrekt. Es liegt an der Natur des Lichts und den Eigenschaften der Physik. Eine perfekte Linse (im Gegensatz zu einer perfekten Lochblende) hat immer einen einzigen Fokuspunkt. Alles, was näher oder weiter ist, wird proportional zur Entfernung vom Fokuspunkt unscharf. Nur Unschärfe am genauen Fokuspunkt wird durch Unvollkommenheiten des Objektivs verursacht. Der Rest wird durch den Lichtkegel verursacht, selbst wenn er perfekt projiziert wird und die Abbildungsebene an der Spitze seines Kegels nicht schneidet.
Michael C
Ich möchte vorschlagen, dass Sie dies als Antwort auf die Frage posten: Was genau bestimmt die Schärfentiefe?
Michael C
Kommentare können jederzeit gelöscht werden. Und dann gibt es da noch diese Metadiskussion über das Posten von Antworten als Kommentar, und genau das haben Sie getan.
Michael C