Die Frage ist von dieser Frage inspiriert , die diese Bilder zeigt .
Die akzeptierte Antwort legt nahe, dass diese Bilder mit einer 8x10-Ansichtskamera aufgenommen wurden und die Verwendung einer 8x10-Kamera in den Kommentaren bestätigt wurde.
Meine Frage ist: Wie kannst du das sagen?
Bei Anzeige auf der Webseite sind diese Bilder 496 x 620 = 0,37 Megapixel (oder 720 x 900 = 0,65 Megapixel, wenn Sie auf "Vollansicht" klicken).
Daher sollte jede Kamera mit einer Auflösung von mehr als 0,37 Mpx in der Lage sein, diese Bilder aufzunehmen, was so ziemlich jedes Smartphone und jede Webcam auf dem Markt bedeutet.
Ich kenne Bayer-Sensoren . Der schlimmste Effekt eines Bayer-Sensors sollte jedoch darin bestehen, die Auflösung um den Faktor vier zu verringern: Wenn Sie das Bild in jeder Richtung um den Faktor zwei verkleinern, enthält jedes Ausgabepixel Daten von mindestens einem Eingabesensor für jeden von die R / G / B-Kanäle.
Eine Verkleinerung um den Faktor 4 bedeutet immer noch, dass keine Kamera mit einer Auflösung von mehr als 1,5 Mpx (anstelle der 0,37 Mpx der Ausgabe) diese Bilder aufnehmen kann. Wir sprechen immer noch über so ziemlich jedes Smartphone und die meisten Webcams auf dem Markt.
Ich kenne mich mit Farbtiefe aus . Aber JPG, das Format, in dem wir diese Bilder anzeigen, ist 8x3 = 24 Bit. Den DxOMark-Ergebnissen zufolge gibt es mehrere Kameras, darunter die Sony NEX 7 und die Nikon D3200, die 24 Bit Farbe aufnehmen können.
Selbst wenn eine 10-Dollar-Webcam die Nuancen in diesen Bildern nicht vollständig erfassen kann, sollte dies mit einer NEX 7 oder D3200 möglich sein.
Ich weiß, dass die meisten Objektive eine geringere Auflösung haben als die meisten Sensoren. Das Nikkor 85 mm 1: 1,4 G ist laut DxOMark das schärfste Objektiv von Nikon und entspricht im besten Fall einer Auflösung von 19 Mpx bei einer 24 Mpx-Kamera (der Vollbild-Nikon D3X), während das Objektiv mit der geringsten Schärfe eine hat Best-Case-Äquivalent von 8Mpx auf derselben Kamera.
Das schlechteste Objektiv in seiner Datenbank bietet jedoch immer noch eine um eine Größenordnung höhere Auflösung als das Ausgabeformat dieser Beispiele.
Ich kenne mich mit Dynamik aus. Diese Bilder steuern jedoch die Beleuchtung, sodass sie weder die Glanzlichter wehen noch die Schatten verlieren. Solange Sie dazu in der Lage sind, spielt der Dynamikumfang keine Rolle. es wird auf jeden Fall auf den Ausgabebereich von 0-255 von JPG abgebildet.
In beiden Fällen haben laut DxOMark mehrere Kameras mit Vollbild- oder kleineren Sensoren einen besseren Dynamikbereich als die besten Mittelformatkameras.
Das ist, was ich weiß, und nichts in diesen theoretischen Fragmenten kann mir sagen, wie es möglich ist, eine 8x10-Ansichtskamera von einer Sony NEX 7 zu unterscheiden, wenn Sie das Ergebnis als 0,37-Mpx-JPG anzeigen.
Soweit ich weiß, sollte es im Wesentlichen unerheblich sein, wie viele Megapixel und wie viel Farbtiefe der Sensor erfassen kann, solange es mindestens so viel ist, wie das Ausgabeformat darstellen kann.
Trotzdem bezweifle ich nicht, dass Stan Rogers eine Antwort gegeben hat. Und ich habe noch nie etwas Ähnliches in Bezug auf die wahrgenommene Schärfe von Kameras mit kleinen Sensoren gesehen.
Habe ich falsch verstanden, was Auflösung bedeutet?
Ich frage mich vor allem nach der Theorie: Wie kann ein Unterschied zwischen zwei Auflösungen (gemessen in Pixel, Lp / mm, Farbtiefe oder was auch immer) in einem Anzeigeformat sichtbar sein, das eine geringere Auflösung aufweist als eines der Originale?
Oder anders ausgedrückt: Gibt es irgendetwas, das mich im Prinzip daran hindert, diese Bilder mit einer Sony NEX 7 und einer Beleuchtung im Wert von 10.000 US-Dollar pixelgenau zu reproduzieren?
quelle
Antworten:
Es geht nur um den Mikrokontrast. Schauen Sie sich die Beiträge zu aps-c im Vergleich zum Vollbild an und erweitern Sie diesen Unterschied auf Mittel- und Großformatsensoren.
Wann sind die Unterschiede zwischen APS-C und Vollbildsensoren von Bedeutung und warum?
Nach den Überabtastungstheorien ist es besser, von Anfang an mit einer höheren Rate und dann mit einer niedrigeren abzutasten als an der Nyquist-Grenze - d. H. Wenn Ihr Endziel 640 x 480 ist, ist es immer noch besser, einen 1280 x 960-Sensor als einen 640 x 480-Sensor zu verwenden.
Es spielt keine Rolle, wie viele MPixel Sie haben, wenn benachbarte Pixel voneinander abhängig sind, da der Verwirrungskreis größer ist als Ihre Pixel auf der Sensorebene. Die Objektive sind ebenfalls nur eingeschränkt auflösbar. Darüber hinaus müssen Sie die "Schärfe" des Objektivs im Verhältnis zu seiner Blende berücksichtigen. Ein größerer Sensor ermöglicht es Ihnen, näher heranzukommen und einen engeren DOF-Wert einzustellen, wodurch Sie noch mehr Details erfassen können weniger Verbreitung usw.
Und dann haben Sie die "Tiefenkompression" durch die Brennweite des Objektivs, die bei diesen Aufnahmen ziemlich aggressiv ist und auf ein Teleobjektiv zeigt. Das Sichtfeld eines kleinen Sensors würde erfordern, dass Sie einen langen Schritt zurücktreten und die Blende viel öffnen, um diesen schmalen DOF zu erhalten. Unter Berücksichtigung der Zahlen würde F8 mit einer Vollformatkamera (210 mm, 2 m Abstand) einen DOF von 4 cm und ein FOV ergeben, das genau das Gesicht wie diese Aufnahmen erfasst.
Anders ausgedrückt: Je größer der Sensor im Verhältnis zum Motiv ist, desto weniger muss das Objektiv auf die Lichtstrahlen einwirken, um sie auf einen engen Punkt zu komprimieren. Dies erhöht die Schärfe der Aufnahme und zeigt unabhängig vom Betrachtungsabstand (was durch Ändern der Bildgröße auf eine niedrigere Auflösung simuliert wird).
Die folgenden Diskussionen über Detailverbesserung und Beibehaltung durch Größenänderung geben einen Vergleich, wenn ähnliche Themen Großformat vs. Vollbild und Großformat vs. Apsc behandelt werden:
Oben: männliche Gesichter mit Bartstummeln. In der Auflösung auf der Site, auf die Sie verlinken, wird der Bart mit pixelweiten Haaren gerendert, aber alles, was verloren geht, hat dieselbe Größe wie in Matts Beispiel. Jetzt sind die Bärte diffus. Wenn wir Matts Bild in der gleichen Größe wie die 8x10-Fotos auf der Website sehen, sehen wir möglicherweise einen großen Unterschied, wenn der Kopf nicht scharf ist. Sogar ein APS-C-System und ein kleinerer Sensor könnten dieses Ergebnis liefern (in Bezug auf Details).
Unten: Vergleichen wir die weiblichen Wimpern in der gleichen Größe wie auf der Webseite, die Sie gezeigt haben, mit einem fokussierten Auge einer APS-C-Kamera, und durch das Schärfen werden die Poren in der Haut nicht zurückgebracht. Wir könnten die Wahrnehmung der Wimpern auf Kosten eines hellen Heiligenscheines verbessern.
Wir sehen jetzt einen enormen Auflösungsunterschied "Gesamtsystem" , und die verwendete apsc-Kamera + das verwendete Objektiv + kann bei der angegebenen niedrigen Auflösung nicht das gleiche Detail wiedergeben wie die 8x10-Kamera + das Objektiv + die angezeigte Auflösung . Hoffe, mein Punkt ist jetzt klarer.
Ein weiterer Vergleich zu APS-C, Bartstummel, nachdem sie geschärft wurden. Obwohl Stackexchange ihre Größe ändert, können wir dennoch einen Unterschied in der Klarheit feststellen.
Zusammenfassend sind die anderen Faktoren, nach denen Sie fragen, außer der Pixelauflösung:
Bei einer verkleinerten Makroaufnahme erhalten Sie mehr Details als bei einer ersten Makroaufnahme.
Ein letzter Beweis, dass die Auflösung vor dem Verkleinern wichtig ist. Oben: 21MP FF Unten: 15MP Aps-c mit derselben Objektiv- / Blendenbrennweite.
Jetzt auf gleiche Auflösung skaliert:
und etwas geschärft, um einige Details wiederzugeben. Was siehst du? Ein bisschen mehr Details von der 21-Megapixel-FF-Kamera bei gleicher Größe / Auflösung, was bis zu einer 3-Megapixel-Kamera äquivalent wäre. Sie können die Linien im neu skalierten Bild nicht zählen, aber die Wahrnehmung, dass es sich um Linien handelt, ist wahr. Ob Sie dies wollen oder nicht, ist Ihre kreative Wahl, aber ab der höheren Auflösung (die vom Gesamtsystem vorgegeben wird) haben Sie die Wahl. Wenn Sie sie nicht möchten, können Sie das Bild verwischen, bevor Sie es neu skalieren.
Ein letztes Experiment, um den Unterschied zwischen einem kleinen Sensor mit niedriger Auflösung und einem größeren Sensor mit höherer Auflösung zu zeigen, der jedoch auf dieselbe Auflösung skaliert und geschärft wurde, wurde am Ende mit der GLEICHEN GRÖSSE gezeigt - mit ALL ELSE EQUAL. Cool, was? Wie habe ich das gemacht? Mit meiner APS-C-Kamera simuliere ich einen "Erntesensor" (kleiner als meine APC-C), indem ich ein Bild aus dem Bild herausschneide. Dann gehe ich näher an das Motiv heran, um einen 4x größeren Sensor mit demselben Motiv zu füllen. - wie die Porträts auf einem großformatigen Sensor im Grunde genommen eine Makroaufnahme sind - viel näher heran als mit einer Aps-C-Kamera. Gleiche Elektronikqualität, gleiches Objektiv, gleiche Einstellungen, gleiches Licht.
So sieht es auf dem kleinen Sensor aus, nennen wir es "mini aps-cc":
Hier sehen wir das "Großformat" (großes volles APS-C):
Hier sehen wir jede Menge Details, oder? Aber das spielt keine Rolle, nachdem wir das Bild auf 0,016 Megapixel verkleinert und für den gleichen Kontrast scharf gestellt haben, oder?
Aber in der Tat tun wir das! Wenn du mir immer noch nicht glaubst, gebe ich auf :)
quelle
Wie auch immer, die Kamera hat eine extrem geringe Schärfentiefe, die nicht parallel zur Filmebene ist. Das Scharfstellen von Lippen und Augen in mehreren Bildern mit der Körperhaltung des Motivs und dem sehr flachen DoF (so oft wie nicht, die Stirn im Kieferbereich unmittelbar unter den Augen ist weich) ist ohne Neigung nicht möglich.
Es gibt auch die Art der unscharfen Bereiche; Dies ist eher typisch für eine Wiedergabe in Lebensgröße als für eine ferne Fokussierung. Die DoF-Erweiterung in Richtung der Kamera entspricht nahezu der Erweiterung in Richtung des Hintergrunds. Dies ist genau das, was Sie erwarten würden, wenn Sie sich einer 1: 1-Reproduktion nähern. Bei normaleren Arbeitsabständen würden Sie eine Schärfeverteilung von etwa einem Drittel / zwei Dritteln um die Schärfeebene herum erwarten (ein Drittel des DoF vor der Schärfeebene; zwei Drittel dahinter). Das deutet also auf einen "Sensor" hin, der erheblich größer ist als APS-C, Vollbild oder sogar Mittelformat. Die Erfahrung mit den Formaten 4x5 und 8x10 hat gezeigt, dass es sich mit größerer Wahrscheinlichkeit um eine 8x10 handelt (obwohl auch eine der seltenen Kameras mit größerem Format nicht in Frage gekommen wäre), und ich hielt das 210-mm-Objektiv für wahrscheinlicher als sagen,
Wie Michael Nielsen betonte, sind in den Bildern viele "Mikrokontraste" zu sehen, aber bis zu einem gewissen Grad können Sie dies bei der Nachbearbeitung vortäuschen, insbesondere wenn das Rendern in Webby-Größen angestrebt wird. Und ich nehme an, Sie könnten sogar DoF und Fokalebene fälschen, wenn Sie eine Tiefenkarte mit einer Gradientenfokalebene erstellen würden, die mit einem 3D-Modell des Objekts verglichen werden müsste, und die Fokusdynamik einer 8x10 bei verstehen etwa 50-60% der Reproduktion in Originalgröße, aber das wäre eine Menge Arbeit. Die wirtschaftliche Lösung, sowohl für den Fotografen als auch für jeden, der das Bild analysiert, wäre eine tatsächliche 8x10-Kamera.
quelle
Nein, eine hochauflösende Kamera spielt wirklich keine Rolle, wenn die Ausgabe eine niedrige Auflösung hat, zumindest nicht, wenn Sie von zweistelligen Megapixeln auf ein Viertel von einem Megapixel absteigen. Nehmen Sie das folgende Bild auf:
Für das Web in der Größe angepasst, sieht es gut aus, obwohl das Gesicht des Motivs nicht einmal scharf gestellt war! Es ist offensichtlich, wenn es zu 100% angezeigt und gedruckt wird, aber Sie können es zum Zeitpunkt der Änderung der Größe auf 2% der ursprünglichen Pixel, die für das Web geschärft wurden, absolut nicht erkennen.
Hier ist ein weiteres Beispiel für ein äußerst weiches Originalbild mit etwa 8 Megapixeln:
Starkes Downsampling auf eine webfreundliche Auflösung, Schärfen und plötzliches Betrachten des gesamten Mikrokontrasts!
Ein 2x-Oversampling hilft definitiv bei der Auflösung und Farbtreue von Bayer-Bildern. Ein Bild des ursprünglichen Canon Digital Rebel (300D), das 2003 in einer Größe von 600 x 400 veröffentlicht wurde, ist jedoch ein 5-faches Oversampling. In jeder Richtung bedeutet dies, dass jedes Pixel im verkleinerten Bild die Stelle von 25 Originalpixeln einnimmt. Sehr, sehr wenig von der Qualität dieser 25 Pixel wird sich auf die Größe des Bildes auswirken.
Der erhöhte Mikrokontrast, den ein System mit größerem Format bietet, ist einfach nicht sichtbar. Der Makrokontrast, den Sie sehen, kann durch Nachbearbeitung ausgeglichen werden, wenn Sie so viel Auflösung haben, um die schärfenden Artefakte wegzuwerfen, dass sie nicht sichtbar sind.
Wenn Sie die Schärfentiefe angleichen, ist es äußerst schwierig, den Unterschied zwischen einer 10x8-Ansichtskamera und einer Kompaktkamera zu erkennen, wenn die Größe auf weniger als 1 Megapixel geändert wird.
quelle
Beim Rendern einer Szene mit feinen Details in ein Bild mit niedriger Auflösung muss eine räumliche Filterung angewendet werden, um alle Inhalte zu entfernen, deren Häufigkeit über der Nyquist-Grenze liegt. Bei der Anwendung der räumlichen Filterung gibt es zwei widersprüchliche Ziele:
Inhalte, deren räumliche Frequenz niedrig genug ist, um angezeigt zu werden, sollten so wenig wie möglich gedämpft werden.
Inhalte, deren Ortsfrequenzen ähnlich sind, sollten in etwa gleich stark gedämpft werden.
Stellen Sie sich eine Szene mit einem Muster aus konvergierenden Linien vor, um zu sehen, wo die Ziele in Konflikt stehen. Wenn der Abstand etwas nahe an der Nyquist-Grenze für die Zielauflösung liegt, die Linien jedoch immer so weit voneinander entfernt sind, dass sie klar dargestellt werden können, ist es oft besser, sie klar darzustellen, als sie zu verwischen. Wenn die Szene jedoch ein Muster aus konvergierenden Linien enthält, die zu nahe kommen, um unterscheidbar zu sein, würden die Linien allmählich unschärfer, wenn sich ihr Abstand der Auflösungsgrenze nähert, weniger ablenken, als wenn die Linien deutlich bis zu einem Punkt erscheinen würden, an dem sie sichtbar sind Scharfer Übergang zu einem festen Grau.
In vielen Fällen hängt die optimale Art der Filterung für eine Szene vom Inhalt ab und davon, welche Aspekte davon von Interesse sind. Wenn Sie eine Szene mit einer höheren Auflösung als dem vorgesehenen Ausgabeformat aufnehmen , bleiben alle im endgültigen Bild möglicherweise gewünschten Informationen erhalten . Informationen müssen herausgefiltert werden, bevor das Bild in einer niedrigeren Auflösung gerendert werden kann. Die hochauflösende Erfassung ermöglicht es jedoch, die genauen Filtermethoden so anzupassen, dass sie den Anforderungen der Szene optimal entsprechen (und möglicherweise unterschiedliche Methoden für unterschiedliche verwenden) Teile einer Szene). Wenn Sie beabsichtigen, ein endgültiges Bild mit einer Auflösung von 640 x 480 zu rendern, ist der Vorteil der Erfassung mit einer Auflösung von 6400 x 4800 wahrscheinlich nicht viel größer als der von 1600 x 1200, aber es kann einige Vorteile mit einer Vergrößerung auf das 2,5-fache geben.
quelle