Echtzeit- und Postproduktionsunschärfen - was ist der Unterschied?

9

Ich war schon immer ein großer Fan von verschwommenen Fotos, zum Teil, weil fast jede Kamera verschwommene Fotos aufnehmen kann, obwohl einige besser sind als andere.

Was ist der Unterschied zwischen Echtzeit- und Postproduktionsunschärfen?

Fehler
quelle
1
Verwandte: Warum ein absichtlich weiches Objektiv kaufen?
Bitte lesen Sie mein Profil
+1 @mattdm: Seltsamerweise würde ich niemals ein Soft-Len verwenden, da ich Unschärfen mit Schärfe mag ... :-) ... was bedeutet, dass ich das Objektiv bewege, um den Unschärfeeffekt zu erzielen.
Fehler

Antworten:

9

Im Allgemeinen: "echte" Unschärfe, entweder aufgrund optischer Eigenschaften (einschließlich Schärfentiefe, chromatischer Aberation, sphärischer Aberation usw.) oder aufgrund von Bewegung, basiert auf mehr Informationen. Es umfasst die dreidimensionalen und zeitlichen Aspekte der Szene sowie die unterschiedliche Reflexion und Brechung verschiedener Wellenlängen des Lichts.

In der Nachbearbeitung kann nur mit einem flachen, projizierten Rendering gearbeitet werden. Intelligente Algorithmen können versuchen, herauszufinden, was vor sich ging, und den Effekt simulieren, sind jedoch immer im Nachteil. Es ist schwer zu wissen, ob etwas klein ist, weil es weit weg ist oder weil es anfangs nur winzig ist, oder ob sich etwas bewegt oder von Natur aus verschwommen ist - oder in welche Richtung und wie schnell. Wenn Sie den Unschärfeprozess als künstlerische Arbeit von Hand steuern, erzielen Sie bessere Ergebnisse, da Sie Ihr eigenes Wissen und Ihre eigene Szenenerkennungs-Engine (in Ihrem Gehirn ) anwenden können , aber selbst dann ist es eine Menge Wenn Sie arbeiten, müssen Sie die Entfernung und die unterschiedliche Bewegung für verschiedene Objekte in der Szene approximieren - oder absichtlich mit einem Foto beginnen, auf dem diese Dinge einfach sind.

In der Welt von morgen werden Kameras sowohl zeitlich als auch räumlich viel mehr Informationen sammeln. Die aktuelle Lytro- Kamera ist eine Spielzeugvorschau davon. Mit einem besseren 3D-Modell können die Auswirkungen verschiedener optischer Konfigurationen besser simuliert werden - und natürlich können Bewegungsunschärfen aus einer Aufzeichnung im Laufe der Zeit erstellt werden.

Bitte lesen Sie mein Profil
quelle
+1 @mattdm: Bedeutet das, dass das Betrachten eines einmaligen Fotos im Vergleich zu den anderen Personen den Unterschied erkennen kann oder unwahrscheinlich ist?
Fehler
@blunders: Ich denke, es hängt vom Thema ab und davon, wie gut der Effekt erzielt wurde, aber im Allgemeinen ja , zumindest für fachkundige Beobachter. Ich mag es zu glauben, dass ich mich von Matt Grums simuliertem Tilt-Shift-Foto nicht täuschen lassen würde , aber es ist leicht, die Geschichten zu erkennen, wenn Sie es im Voraus wissen.
Bitte lesen Sie mein Profil
4

Sowohl Bewegungsunschärfen als auch unscharfe Unschärfen können in der Software bei ausreichender Zeit simuliert werden, aber die Ergebnisse sind selten so zufriedenstellend wie in der Realität. Das Fälschen funktioniert am besten, wenn Sie nur zwei Unschärfeebenen haben, z. B. ein einzelnes sich bewegendes Objekt oder ein einzelnes Motiv, dessen Hintergrund einen festen Abstand hat.

Um die Unschärfe der Linse wirklich zu simulieren, variiert der Unschärferadius proportional zur Entfernung von der Brennebene, sodass Sie die Entfernung zu jedem Punkt im Bild abbilden müssen. Wenn Sie einen flachen Hintergrund mit gleichem Abstand haben, z. B. eine Wand, reduziert sich das Problem auf das Ausschneiden Ihres Motivs (was leichter zu handhaben ist). Eine Sache, mit der Sie oft durchkommen können, ist, einen vorhandenen verschwommenen Hintergrund zu nehmen und ihn unschärfer zu machen.

Wenn Sie nicht lange damit verbringen, werden Sie keinen anderen Fotografen zum Narren halten, obwohl Sie ein gelegentlicher Beobachter sind.

Bewegungsunschärfe ist etwas einfacher, vorausgesetzt, die Bewegung erfolgt von einer Seite zur anderen, da sich das Problem der Segmentierung unabhängig bewegter Objekte (Ausschneiden des Motivs) verringert. Möglicherweise müssen Sie jedoch auf beiden Seiten Ihres Motivs einen zusätzlichen Hintergrund ausfüllen, da Sie im wirklichen Leben etwas mehr Hintergrund sehen, als wenn das Motiv stationär wäre. Dies liegt daran, dass der Hintergrund angezeigt wird, wenn sich das Motiv über den Rahmen bewegt.

Matt Grum
quelle