Welche Einstellungen meiner DSLR-Kamera emulieren die Szene genau so, wie ich mit bloßen Augen sehen kann?
Ich denke, es ist nicht möglich, den Kontrast und die Farben genau so zu erhalten, wie meine Augen sehen können, und er kann von Person zu Person variieren. Ich interessiere mich also mehr für die Brennweite des Objektivs. Wenn jemand über die Brennweite hinaus mehr Einblick geben kann, würde ich mich freuen, es zu wissen.
Wenn ich zum Beispiel am Meer stehe und den Sonnenaufgang einfangen möchte, sollte dies die Brennweite sein, damit ich den Blickwinkel abdecken kann, den meine Augen sehen können, und damit die Größe der Objekte auf dem Foto genau wie meine Augen es wahrnehmen?
Meine Kamera ist eine APS-C Canon EOS 1000D. Ich habe ein Sigma von 50 mm, 1,8 mm und 70 mm, 300 mm. Kann es mit diesem Objektiv erreicht werden? Bis jetzt habe ich nicht erreicht oder war mit dem, was ich sehe und was ich bekomme, zufrieden.
Antworten:
Nun, ich hasse es, es dir zu brechen, aber du kannst deine Augen nicht genau nachahmen. Es gibt ein paar Gründe, lassen Sie mich erklären.
Lassen Sie mich trotzdem sagen, dass es davon abhängt, ob Sie sich auf einen bestimmten Bereich oder auf die größere Szene konzentrieren möchten. Wenn Sie den spezifischen Bereich wünschen, sollten Sie ungefähr 150mm oder so gehen. Bei einer dramatischen Landschaft wird eher eine 24 Ihr gesamtes Sichtfeld erfassen. Eine häufig genannte Zahl ist 50 mm, mit der Sie den höher auflösenden Teil Ihrer Augen und dann einige, aber nicht das gesamte Feld sehen können. Dies ist normalerweise ein guter Kompromiss. (Bei alledem wird davon ausgegangen, dass Sie eine vollformatige Kamera haben. Wenn es sich bei Ihrer um einen Erntesensor handelt, teilen Sie dies bitte durch den entsprechenden Faktor.)
quelle
Das Auge bewegt sich
Ich möchte zur Antwort von @Pearsonartphoto hinzufügen, dass menschliche Augen keine Standbildszene sehen, sondern diese kontinuierlich scannen, ihre „Blende“ anpassen und beim Scannen neu fokussieren. Dank dieses Scanvorgangs können wir also Folgendes erkennen :
Was wir also "sehen", ist das Ergebnis der "Nachbearbeitung" eines Bilderstroms, 30-70 Bilder pro Sekunde. Siehe Augenbewegung .
Die Kamera steht still
Die Kamera kann nicht simulieren, was das Auge sieht, da ein großer Teil dessen, was das Auge sieht, unser Prozess des Sehens und Denkens über die Szene ist und vieles davon im Gehirn geschieht, nicht nur im Auge.
Sie können aber auch Fotos machen, die bei dem Betrachter einen bestimmten, gewünschten Eindruck hinterlassen. Und hier beginnt die Kunst , weil man durch ein flaches farbiges Objekt bei einem anderen Menschen bestimmte Gefühle hervorrufen muss.
Mehrere Bildtechniken
PS Einige populäre Techniken in der Digitalfotografie versuchen tatsächlich, mehr aus mehreren aufeinanderfolgenden Bildern wiederherzustellen, als es das menschliche Sehen tut. Diese Techniken umfassen:
quelle
Ein Bild genau so aufnehmen, wie Ihre Augen es sehen? Kein Problem, aber es ist nicht alles in der Kamera, Sie müssen einige Arbeiten in der Post erledigen. Und es ist mit ziemlicher Sicherheit nicht das, was Sie wirklich wollen.
Zunächst benötigen Sie ein kreisförmiges Fischaugenobjektiv, das schlecht vignettiert, um die Bilder aufzunehmen. (Tatsächlich benötigen Sie mehrere Bilder und ein Betrachtungssystem mit integrierter Blickverfolgung, das Bilder umkehren kann, wenn sich Ihr Auge bewegt.) Niemand stellt ein Objektiv her, das so schlecht funktioniert wie das menschliche Auge (zumindest macht niemand so etwas.) absichtlich und bietet es zum Verkauf als fotografisches Objektiv an), der Rest muss also auf dem Postweg geschehen.
Zuerst müssen Sie das Bild oben abschneiden. Wo genau wird variieren, aber das ist, wo Ihre Augenbrauen in die Quere kommen. Dann müssen Sie einen Kantensucher ausführen - in Photoshop funktioniert der Relieffilter Sketch-> Bas gut. Legen Sie das Ergebnis auf eine separate Ebene, um es zu multiplizieren. Sie werden es später zusammenführen. Sie können die Ebene jedoch vorerst ausblenden.
Wählen Sie als Nächstes einen Bereich in der Mitte des Bildes aus - ungefähr ein oder zwei Prozent des gesamten Bildes - und verschieben Sie die Auswahl um zwanzig oder dreißig Pixel. Kopieren Sie diese Auswahl dann auf eine separate Ebene.
Führen Sie nun einen starken Unschärfefilter über das Originalbild aus. Sie möchten die Farben sehen können, aber keine wirklichen Details. Führen Sie die Basrelief-Ebene auf das unscharfe Bild. Verschmelze dann die Ebene, die du aus der Auswahl erstellt hast. Sie sollten jetzt ein kreisförmiges Bild mit abgeschnittenen, schlecht definierten Rändern, keinem echten Bildausschnitt über dem größten Teil des Bildes, aber mit den Rändern der Originalelemente, die nach Aufmerksamkeit schreien, und einem kleinen Bereich in der Mitte (ungefähr zehn Prozent der Breite und Höhe) in relativ scharfem Fokus.
Du bist noch nicht fertig. Sie müssen eine kreisförmige Auswahl erstellen, die ungefähr halb so groß ist wie der fokussierte Bereich, direkt unterhalb und an einer Seite, und den Fokusbereich leicht überlappen. Vervollständige die Auswahl und fülle sie mit Schwarz.
Erstellen Sie eine neue Überlagerungsebene, füllen Sie sie mit 50% Grau und fügen Sie etwa zehn Prozent monochromes Gaußsches Rauschen hinzu, um eine gute Unschärfe zu erzielen. Führen Sie das nach unten zusammen.
Sie haben jetzt ein Bild, das in etwa dem entspricht, was Sie tatsächlich mit festem Auge sehen. Tatsächlich ist es viel weniger verzerrt als das, was Ihr Auge sieht, aber das Hinzufügen all der kleinen Windungen, die aufgrund der unterschiedlichen Dicke der Flüssigkeiten auf der Oberfläche des Auges zu einem bestimmten Zeitpunkt auftreten, ist für diese Übung eine Menge Mühe .
Alles andere, von dem du denkst, dass du es siehst, kommt von deinem Gehirn, nicht von deinem Auge. Dieser schwarze Fleck? Sie haben eines in jedem Auge und Ihr Gehirn füllt die fehlenden Daten aus. Das weite Meer der Details? Panorama-Stitching im visuellen Kortex. Schärfe jeglicher Art? Mittelung von Mehrfachbelichtungen. Wir haben auch ein automatisches Blendensystem und "ISO-Shifting" im laufenden Betrieb, je nachdem, worauf wir gerade achten (unser statischer Dynamikbereich unterscheidet sich nicht allzu sehr von dem, was die Kamera aufzeichnet - wir machen HDR). in der Post ").
Sie möchten wahrscheinlich erfassen, was Ihr Verstand sieht, nicht was Ihre Augen sehen, und das ist für jedes Bild anders. Deshalb stellen sie all diese verschiedenen Objektive her. Manchmal möchten Sie ein riesiges Panorama zeigen, weil Sie es gesehen haben . Aber selbst in einer riesigen Landschaft mag es nur ein kleines Wäldchen gewesen sein, das Ihre Aufmerksamkeit erregt hat. Ein Porträt kann eine enge Nahaufnahme sein, oder es kann die gesamte Umgebung des Darstellers einbeziehen. Auch hier kommt es darauf an, was Sie in Ihrem geistigen Auge gesehen haben, und nicht darauf, was Sie mit Ihrem tatsächlichen Auge gesehen haben. Dasselbe gilt für die Schärfentiefe - haben Sie die gesamte Szene betrachtet oder nur ein kleines Detail in einem größeren Kontext betrachtet?
Mit anderen Worten, dies ist keine Frage, die direkt beantwortet werden kann. Die Antwort ist und bleibt "es kommt darauf an". Experiment. Trainieren. Machen Sie sich mit Ihren Werkzeugen und deren Funktionen vertraut, und schließlich wissen Sie genau, was Sie tun müssen, um nicht das zu erfassen, was tatsächlich vorhanden war, sondern das, was Sie gesehen haben. Ansel Adams nannte es eine Vorschau , und er verbrachte viel Zeit damit, ein formales System zu entwickeln, das es ihm ermöglichte, auf Film festzuhalten, was er mit seinem Verstand und seinem Herzen sah, nicht mit seinen Augen.
quelle
Eines der Probleme beim Versuch, das menschliche Sehen auf einem Foto nachzuahmen, ist das Sichtfeld .
Die Perspektive, die wir sehen und die eine Funktion der relativen Brennweite ist, entspricht in etwa der Perspektive eines 50-mm-Objektivs bei einem Vollbildsensor oder 32-mm-Objektiv bei einem DX-Sensor, aber dann ist das Problem nicht die Perspektive, sondern das Sichtfeld. Stellen Sie sich das Bild vor, das Sie bei 50 mm sehen, und erweitern Sie nun das Sichtfeld wie bei einer Panoramaaufnahme.
Wenn Sie ein "menschliches" Foto machen, sehen Sie fast 180 Grad horizontal und ungefähr 120 Grad vertikal, behalten jedoch die Perspektive der mittleren Brennweite bei.
Nehmen Sie dieses grobe Diagramm des Auges (grün) und einen digitalen SLR-Sensor (blau). Sie werden feststellen, dass die Brennweite für beide Medien genau gleich ist, ungefähr 17 mm, aber der Winkel, um den sich die Netzhaut dreht, ist viel größer als der des Sensors.
Es sieht ein größeres Sichtfeld bei gleicher Brennweite. Aus diesem Grund entspricht ein DX-Sensor einem 1,6-mal kleineren Sichtfeld als der 35-mm-Sensor, bei gleicher Brennweite ändert sich die Perspektive jedoch nicht. Es erfasst einfach einen kleineren Bereich der Szene.
Panoramen sind eine Möglichkeit, das Sichtfeld des menschlichen Auges zu emulieren und dabei die flachere und realistischere Perspektive beizubehalten.
Das nächste Problem ist der Dynamikbereich . Ein durchschnittlicher Dynamikbereich digitaler Spiegelreflexsensoren beträgt ungefähr 11 Lichtblenden. Dies bedeutet, dass der Unterschied zwischen 11 Verdopplungen der Lichtintensität erfasst werden kann . 1, 2, 4, 8, 16, 32 usw. Wie genau ist eine andere Geschichte. 14-Bit ist besser als 12 und 12 ist besser als 8 Bit, aber Analog ist noch besser als 14-Bit Digital.
Ein Full-Frame-Profikörper, der an einem guten Tag bis zu 13 Zwischenstopps einfangen kann, gilt nach modernen Maßstäben als beeindruckend, kommt dem menschlichen Auge jedoch nicht einmal nahe.
Das menschliche Auge ist manchmal in der Lage, den Unterschied zwischen ungefähr 18 bis 20 Intensitätsstufen in einer sehr groben Messung zu unterscheiden. Dies bedeutet, dass der schwarze Schatten, den Ihre Kamera sieht, für das menschliche Auge ziemlich leicht im Detail gesehen werden kann, während gleichzeitig helle Details in der Szene sichtbar sind . Hier sinkt aktuell der Dynamikumfang eines digitalen Sensors.
Es kann einfach nicht gleichzeitig solch wild unterschiedliche Lichtintensitäten unterscheiden. Manchmal ist es so schlimm , dass Sie haben für die Highlights entweder aussetzen oder aussetzen für den Schatten und saugen sie auf, auch wenn Sie Ihre eigenen Augen beide gut sehen können.
HDR ist eine Methode, um den dynamischen Bereich des menschlichen Auges zu emulieren, ist jedoch immer noch durch die Medien, auf denen es betrachtet wird, sowie die Art und Weise, wie es verarbeitet wird, begrenzt.
Ein weiteres Problem ist, dass, während es für uns ein Spaziergang im Park ist, wie unser Gehirn darauf ausgelegt ist, so zu sehen, nur die Fovea sehr detailliert sieht. Das periphere Sehen ist nicht sehr detailliert und dient in erster Linie dazu, Bewegungen zu erkennen, die uns helfen können, zu erkennen, dass um uns herum etwas passiert, oder uns vor Gefahren zu warnen und die Kampf- oder Fluchtreaktion auszulösen.
Wenn Sie dies auf einem Foto simulieren würden, hätte das Bild einen kleinen Fokusbereich in der Mitte und das Bild würde schnell unscharf, wenn Sie sich den Rändern nähern.
Es gibt andere Themen, die ich entweder nicht angesprochen habe oder die ich nicht über mich selbst weiß, aber ich denke am Ende des Tages, ein Foto soll nicht wirklich die menschliche Erfahrung "nachahmen", es soll einen Moment festhalten, um Erstellen Sie eine Antwort oder eine Emotion, oder um Erinnerungen festzuhalten, oder um einen großen Lohn von einem Kunden zu erhalten :)
quelle
Ihr Gehirn kann sich an die Signale anpassen, die von den lichtempfindlichen Zellen in Ihrem Auge kommen, so dass Sie einen höheren Dynamikbereich für Ihre Augen haben können, als dies von Ihren Kamerazellen möglich ist. Solange es keine intelligenten Kamerasensoren gibt, die einen ausschalten können, der ausreichend beleuchtet ist, werden Sie Schwierigkeiten haben, die von Ihnen benötigte Reichweite zu erreichen.
Ich würde vorschlagen, eine HDR aus einer Szene zu machen, aber die Unter- und Überbelichtung nur leicht zu verschieben, damit sie immer noch natürlich aussieht.
quelle
Warum setzen Sie nicht einfach Ihr 70-200mm Objektiv auf und zoomen Sie, bis das Bild auf Ihrem LCD die gleiche Größe hat wie Ihre Augenansicht ohne Kamera? Das Objektiv liest dann, bei welcher Brennweite Sie sich befinden. Oder benutzen Sie einfach den Sucher. Wenn Sie die tatsächliche Ansicht, die LCD-Ansicht und die Sucheransicht genau studieren, gelangen Sie dorthin, benötigen jedoch ein Stativ und mindestens 10 Minuten. Möglicherweise ist Ihr Setup nur in bestimmten Entfernungen ausgezeichnet. Die 3 Ansichten stimmen zufriedenstellend überein. An diesem Punkt können Sie einen Objektivkauf erwägen. Eine andere Sache nach der Skalenanpassung ist die Tonanpassung an Ihr Auge. Kameras saugen im Allgemeinen daran, Schatten zu sehen. Es scheint eine gute Idee zu sein, einen neutralen Abdunklungsfilter und einige Stufen hinzuzufügen, um dies zu kompensieren, mit dem Ziel, die Schatten aufzuhellen und gleichzeitig die Glanzlichter zu zähmen. Dies könnte dazu führen, dass die Highlights nicht so "ausgeblasen" werden während die Schatten vollständig schwarz sind, wenn die Belichtung einfach erhöht wurde. Ein UV-Filter scheint ebenfalls wichtig zu sein. Danach kann man die Verarbeitungsfunktionen in der Kamera anpassen, um sie zu optimieren und diese Einstellungen als Standardeinstellungen festzulegen. Ich erwähne hier nur, was ich versuchen würde. Hoffe das hilft.
quelle