Immer wenn Sie etwas digitalisieren, gehen einige Informationen verloren. Wenn das Original rekonstruiert wird, kann dieser Informationsverlust zu Ergebnissen führen, die wenig mit dem Originalsignal zu tun haben. Dies gilt für Ton, elektronische Signale und Lichtmuster, die auf einen Bildsensor projiziert werden.
Solange die von uns digitalisierten Objekte größer sind (eine niedrigere Frequenz haben) als das resultierende digitale Signal, kann das Original mit mindestens angemessener Wiedergabetreue rekonstruiert werden. (Die maximale Frequenz, die originalgetreu digitalisiert werden kann, muss weniger als die Hälfte der Abtastfrequenz betragen. Es kann hilfreich sein, im Wikipedia-Eintrag nach der Nyquist-Frequenz zu suchen .)
Wenn wir versuchen, digitale Proben von Objekten mit feinen Mustern wie Linien mit regelmäßigem Abstand zu entnehmen, kann der Sensor möglicherweise nicht mithalten, und wenn das Bild rekonstruiert wird, erhalten wir ein Moiré-Muster , das im Allgemeinen als Fläche angezeigt wird von Falschfarben in einem digitalen Bild. Anstelle des feinen Musters erhalten Sie einen Farbfleck, der nicht im Original enthalten ist, oder Linien, die in entgegengesetzten Winkeln zu den Linien im Originalmuster verlaufen.
Um das Moiré-Problem zu umgehen, enthalten die meisten kleinformatigen Digitalkameras (Vollbild 35 mm und kleiner) einen optischen Tiefpassfilter in der Sensorbaugruppe. Im Wesentlichen handelt es sich um einen Filter, der das Bild etwas unscharf macht, sodass es bei einer feineren Detailebene keine harten Übergänge gibt, als die Kamera aus der Sensoraufzeichnung genau rekonstruieren kann. Der "normale" D800 funktioniert genau so.
Bei einer Sensorauflösung von jetzt über 36 MP gibt es jedoch viel weniger Fälle, in denen die Details, die Sie aufzeichnen möchten, nicht genau aufgelöst und rekonstruiert werden können - insbesondere, wenn Sie in einer Studiosituation arbeiten und Änderungen vornehmen können, wenn Sie stoßen in die Nyquist-Grenze und erstellen Sie Moiré (Ändern der Vergrößerung, um das Muster größer zu machen, damit es richtig aufgelöst werden kann, kleiner, damit es aufgrund von Grenzen der Linse nicht wirklich optisch aufgelöst wird, oder Ändern der Schärfentiefe sind alle Möglichkeiten das Problem angreifen). Um die maximale Bildauflösung zu erzielen, kann es sich daher lohnen, auf den Tiefpassfilter zu verzichten, wie dies bei mittelformatigen DSLRs (und einigen High-End-Kameras wie der Leica M9) der Fall ist.
Jetzt könnten Sie denken, dass das Herausnehmen von etwas aus der Kamera weniger kosten sollte als das Einsetzen, und Sie hätten Recht. Der D800E lässt den Tiefpassfilter nicht gerade aus. Es hat stattdessen ein Sandwich mit Filtern. Es gibt immer noch einen dünnen Tiefpassfilter, der jedoch von einem anderen dünnen Filter unterstützt wird, der den Effekt weitgehend rückgängig macht. Dadurch können die Kameras mit den gleichen grundlegenden Werkzeugen und Toleranzen hergestellt werden. Wenn der Tiefpassfilter nicht in der Gleichung enthalten ist, wird der Sensor dünner und erfordert eine andere Montage und Ausrichtung, um die Fokusebene in Bezug auf den Flansch für die Linsenmontage und den Reflexspiegel in derselben Position zu halten. Die zusätzlichen 200-300 US-Dollar für den modifizierten Sensor sind wahrscheinlich viel billiger als ein ganz anderes Werkzeugsetup für die Karosserie-Gussteile.
Das Ergebnis ist, dass die D800E in der Lage sein sollte, schärfere und detailliertere Bilder aufzunehmen, dies jedoch auf die Gefahr hin, Moiré-Muster in Bereichen mit feinen Details zu erzeugen. Beide Kameras haben möglicherweise die gleiche Anzahl von Pixeln, aber die Pixel der D800 sind im Vergleich zu denen der D800E "matschig".
Der D800E verfügt nicht über ein optisches Tiefpassfilter ( LPF ). Der Filter sitzt auf dem Chip vor den lichtempfindlichen Dioden.
Ich vermute, dass die D800E wegen des geringeren Volumens der Kamera teurer ist (denken Sie eine Größenordnung niedriger), vielleicht auch teurer, weil sie sehr spezialisierte Benutzer anspricht, und vielleicht sogar als Abschreckung. Die D800E erzeugt in fast allen Fotos Moire oder Aliasing. Wenn Sie nicht verstehen, was vor sich geht, möchten Sie möglicherweise die Kamera dafür verantwortlich machen.
Aliasing
Wikipedia hat einige weitere Erklärungen WP: Aliasing, aber das Prinzip ist ziemlich einfach: Sie haben ein Signal (das Bild). Das wahre Signal hat verschiedene Frequenzkomponenten. Sie tasten es jetzt ab (setzen Sie es in Pixel, wobei jedes Pixel einen Wert hat). Im Pixel wissen Sie nicht, ob der Grauwert in diesem Teil des Bildes konstant ist oder ob er sich sehr schnell ändert. Der Pixelwert ist einfach der Durchschnitt der wahren Werte in dem Bereich, in dem sich das Pixel befindet.
Der Sensor kann somit nur bis zu einer bestimmten Frequenz (als Abtastfrequenz bezeichnet) abtasten. Das Nyquist-Kriterium besagt dann, dass Sie nur bis zur Hälfte der Abtastfrequenz über das Signal berichten können. Um Aliasing zu vermeiden, lassen Sie nur Frequenzen darunter den Sensor erreichen.
D800E gegen D800
Das D800 ist ein sehr teures und professionell ausgerichtetes Gerät, daher gebe ich eindeutig keinen Rat, welches Sie kaufen sollten. Die Antwort ist auch nicht, wenn Sie darüber nachdenken müssen. Aber ich kann sagen, warum es den D800E gibt. Alle (kleinformatigen) Kameras auf dem Markt verfügen über einen LPF. Der D800 hat 36 Millionen Pixel. Das ist so viel, dass man sich entscheiden könnte, während der Produktion kein Anti-Aliasing zu benötigen und es stattdessen in Software zu integrieren.
quelle
Die Moiré-Wahrscheinlichkeit beim D800E ist aufgrund der Pixeldichte sehr gering. Vielleicht könnte es ein Problem mit der Modefotografie sein, deren sehr feine Struktur kleiner ist als die Pixeldichte der Nikon D800E.
Also werde ich mich für den etwas teureren D800E entscheiden und bin gespannt, was der Unterschied zur Leica S2 sein wird
quelle