Ich verstehe, dass der Zweck des Anti-Aliasing-Filters (AA) darin besteht, Moiré zu verhindern. Als Digitalkameras zum ersten Mal auf den Markt kamen, war ein AA-Filter erforderlich, um eine ausreichende Unschärfe zu erzielen und Moiré-Muster zu vermeiden. Zu dieser Zeit war die Leistung von In-Camera-Prozessoren sehr begrenzt. Aber warum muss bei modernen DSLR-Kameras immer noch ein AA-Filter über dem Sensor angebracht werden? Könnte dies nicht genauso einfach durch die Algorithmen erreicht werden, die angewendet werden, wenn die Ausgabe des Sensors demosaiziert wird?Es scheint, dass die derzeit in der Kamera verfügbare Rechenleistung dies jetzt viel mehr als noch vor einigen Jahren ermöglicht. Der aktuelle Digic 5+ -Prozessor von Canon verfügt über die 100-fache Verarbeitungsleistung des Digic III-Prozessors, die die Leistung der frühesten Digitalkameras in den Schatten stellt. Konnte die AA-Unschärfe, insbesondere beim Aufnehmen von RAW-Dateien, nicht in der Nachbearbeitungsphase erfolgen? Ist dies die Grundvoraussetzung der Nikon D800E, obwohl sie einen zweiten Filter verwendet, um dem ersten entgegenzuwirken?
13
Antworten:
Aliasing ist das Ergebnis der Wiederholung von Mustern mit ungefähr derselben Frequenz, die sich in unerwünschter Weise gegenseitig stören. Bei der Fotografie erzeugen die höheren Frequenzen des vom Objektiv auf den Sensor projizierten Bildes ein Interferenzmuster (in diesem Fall Moiré) mit dem Pixelraster. Diese Störung tritt nur auf, wenn diese Frequenzen ungefähr gleich sind oder wenn die Abtastfrequenz des Sensors mit der Wavelet-Frequenz des Bildes übereinstimmt. Das ist die Nyquist-Grenze. Hinweis ... das ist ein analoges Problem ... Moiré tritt aufgrund von Interferenzen auf, die in der realen Welt in Echtzeit auftreten, bevor das Bild tatsächlich belichtet wird.
Sobald das Bild belichtet ist, wird dieses Interferenzmuster effektiv "eingebrannt". Bis zu einem gewissen Grad können Sie Software verwenden, um Moiré-Muster in der Post zu entfernen. Im Vergleich zu einem physischen Tiefpassfilter (AA-Filter) vor dem Sensor ist dies jedoch nur minimal wirksam. Der Detailverlust durch Moiré kann auch größer sein als der Verlust durch einen AA-Filter, da Moiré praktisch Unsinnsdaten sind, bei denen leicht unscharfe Details noch nützlich sein können.
Ein AA-Filter dient nur dazu, diese Frequenzen in Nyquist zu verwischen, damit keine Interferenzmuster entstehen. Der Grund, warum wir immer noch AA-Filter benötigen, liegt darin, dass Bildsensoren und Objektive immer noch in der Lage sind, auf die gleiche Frequenz aufzulösen. Wenn sich Sensoren so weit verbessern, dass die Abtastfrequenz des Sensors selbst bei optimaler Apertur konstant höher ist als die der besten Objektive, sinkt der Bedarf an einem AA-Filter. Die Linse selbst würde die für uns notwendigen Unschärfen effektiv handhaben, und Interferenzmuster würden niemals in erster Linie auftreten.
quelle
Die Physik funktioniert einfach nicht so. Durch das Aliasing werden Frequenzen nach dem Nyquist-Grenzwert irreversibel so umgewandelt, dass sie als Frequenzen unterhalb des Grenzwerts angezeigt werden, obwohl diese "Aliase" nicht wirklich vorhanden sind. Kein Verarbeitungsaufwand für ein Alias-Signal kann im allgemeinen Fall das ursprüngliche Signal wiederherstellen. Die ausgefallenen mathematischen Erklärungen sind ziemlich lang, es sei denn, Sie haben eine Klasse in Abtasttheorie und digitaler Signalverarbeitung. Wenn Sie es dennoch getan hätten, würden Sie die Frage nicht stellen. Leider lautet die beste Antwort dann einfach: "So funktioniert die Physik nicht. Entschuldigung, aber Sie müssen mir in dieser Sache vertrauen." .
Betrachten Sie den Fall eines Bildes von einer Mauer, um ein grobes Gefühl dafür zu vermitteln, dass das oben Genannte zutrifft. Ohne einen AA-Filter gibt es Moiré-Muster (die eigentlich die Aliase sind), die die Ziegellinien wellig erscheinen lassen. Sie haben noch nie das echte Gebäude gesehen, nur das Bild mit den Wellenlinien.
Woher weißt du, dass die echten Steine nicht in einem Wellenmuster verlegt wurden? Sie nehmen an, dass sie nicht aus Ihrem allgemeinen Wissen über Ziegel und der menschlichen Erfahrung mit dem Sehen von Ziegelmauern stammen. Könnte jemand jedoch einfach absichtlich eine Mauer so gestalten, dass sie im wirklichen Leben (mit eigenen Augen betrachtet) wie das Bild aussieht? Ja, sie könnten. Kann man also mathematisch ein verzerrtes Bild einer normalen Backsteinmauer von einem originalgetreuen Bild einer bewusst gewellten Backsteinmauer unterscheiden? Nein ist es nicht. Tatsächlich können Sie den Unterschied auch nicht wirklich erkennen, außer dass Ihre Vorstellung davon, was ein Bild wahrscheinlich darstellt, den Eindruck erwecken kann, dass Sie es können. Genau genommen kann man nicht sagen, ob es sich bei den Wellen um Moiré-Artefakte oder um echte Wellen handelt.
Software kann die Wellen nicht auf magische Weise entfernen, da sie nicht weiß, was echt ist und was nicht. Mathematisch kann gezeigt werden, dass es nicht wissen kann, zumindest wenn man nur das wellige Bild betrachtet.
Eine Mauer mag ein offensichtlicher Fall sein, bei dem Sie erkennen, dass das verzerrte Bild falsch ist, aber es gibt viele subtilere Fälle, bei denen Sie es wirklich nicht wissen und sich möglicherweise nicht einmal bewusst sind, dass ein Aliasing stattfindet.
Als Antwort auf Kommentare hinzugefügt:
Der Unterschied zwischen dem Aliasing eines Audiosignals und eines Bildes besteht nur darin, dass das erstere 1D und das letztere 2D ist. Die Theorie und die Mathematik, um Effekte zu realisieren, ist immer noch dieselbe, nur dass sie beim Umgang mit Bildern in 2D angewendet wird. Wenn sich die Samples in einem regelmäßigen rechteckigen Raster befinden, wie es bei einer Digitalkamera der Fall ist, treten einige andere interessante Probleme auf. Zum Beispiel ist die Abtastfrequenz entlang der diagonalen Richtungen in Bezug auf die achsenausgerichteten Richtungen 2 × niedriger (ungefähr 1,4 × niedriger). Die Abtasttheorie, die Nyquist-Rate und die tatsächlichen Aliase unterscheiden sich jedoch in einem 2D-Signal nicht von einem 1D-Signal. Der Hauptunterschied scheint darin zu liegen, dass es für diejenigen, die nicht daran gewöhnt sind, im Frequenzraum zu denken, schwieriger sein kann, ihre Gedanken einzuhüllen und zu projizieren, was alles in Bezug auf das, was Sie in einem Bild sehen, bedeutet.
Nein, Sie können ein Signal nicht nachträglich "demosaikieren", zumindest nicht in dem allgemeinen Fall, in dem Sie nicht wissen, wie das Original aussehen soll. Moiré-Muster, die durch das Abtasten eines kontinuierlichen Bildes verursacht werden, sind Aliase. Für sie gilt die gleiche Mathematik wie für Hochfrequenzen, die in einen Audiostream übergehen und wie Hintergrundpfeifen klingen. Es ist das gleiche Zeug, mit der gleichen Theorie, um es zu erklären, und der gleichen Lösung, um damit umzugehen.
Diese Lösung besteht darin, die Frequenzen oberhalb der Nyquist-Grenze vor dem Abtasten zu beseitigen . Bei Audio, das mit einem einfachen Tiefpassfilter durchgeführt werden kann, kann dies möglicherweise aus einem Widerstand und einem Kondensator erfolgen. Bei der Bildabtastung benötigen Sie immer noch einen Tiefpassfilter. In diesem Fall wird ein Teil des Lichts, das nur auf ein einzelnes Pixel trifft, auf benachbarte Pixel verteilt. Optisch sieht wie folgt aus einem leichten Verschwimmen des Bilds vores wird abgetastet. Hochfrequenzinhalte sehen aus wie feine Details oder scharfe Kanten in einem Bild. Umgekehrt enthalten scharfe Kanten und feine Details hohe Frequenzen. Genau diese hohen Frequenzen werden im abgetasteten Bild in Aliase umgewandelt. Einige Aliase werden als Moiré-Muster bezeichnet, wenn das Original einen regelmäßigen Inhalt hatte. Einige Aliase verleihen Linien oder Kanten den "Treppenstufen" -Effekt, insbesondere wenn sie nahezu vertikal oder horizontal sind. Es gibt andere visuelle Effekte, die durch Aliase verursacht werden.
Nur weil die unabhängige Achse in Audiosignalen die Zeit ist und die unabhängigen Achsen (zwei davon, da das Signal 2D ist) eines Bildes die Entfernung sind, wird die Mathematik nicht ungültig oder es wird irgendwie zwischen Audiosignalen und Bildern unterschieden. Wahrscheinlich, weil die Theorie und die Anwendungen von Aliasing und Anti-Aliasing an 1D-Signalen entwickelt wurden, die zeitbasierte Spannungen waren, wird der Begriff "Zeitbereich" im Gegensatz zum "Frequenzbereich" verwendet. In einem Bild ist die Nichtfrequenzraumdarstellung technisch die "Entfernungsdomäne", aber zur Vereinfachung der Signalverarbeitung wird sie häufig trotzdem als "Zeitdomäne" bezeichnet. Lass dich nicht davon ablenken, was Aliasing wirklich ist. Und nein, es ist überhaupt kein Beweis dafür, dass die Theorie nicht auf Bilder zutrifft. nur, dass aus historischen Gründen manchmal eine irreführende Wortwahl verwendet wird, um Dinge zu beschreiben. Tatsächlich ist die Abkürzung "Zeitdomäne", die auf die Nichtfrequenzdomäne von Bildern angewendet wird, tatsächlichdenn die Theorie ist die gleiche zwischen Bildern und echten zeitbasierten Signalen. Aliasing ist Aliasing, unabhängig davon, wie die unabhängige Achse (oder die unabhängigen Achsen) aussieht.
Wenn Sie nicht bereit sind, sich auf der Ebene einiger College-Kurse über Abtasttheorie und Signalverarbeitung damit zu beschäftigen, müssen Sie am Ende nur denen vertrauen, die dies tun. Einige dieser Dinge sind ohne einen signifikanten theoretischen Hintergrund nicht intuitiv zu verstehen.
quelle
In Software können Sie nicht den gleichen Effekt erzielen. Unter bestimmten Voraussetzungen können Sie irgendwo in der Nähe sein. Der AA-Filter streut das Licht jedoch so, dass er auf mehrere verschiedenfarbige Pixel trifft, sodass Sie Informationen erhalten, die im Sensor ohne AA-Filter nicht vorhanden sind.
Die Nikon D800E unternimmt überhaupt nichts, um den AA-Filter zu replizieren. Wenn das Bild hochfrequente Muster enthält, bekommen Sie Moiré und das ist Ihr Problem - Sie müssen sich damit befassen!
Aliasing ist am schlimmsten, wenn die Detailfrequenz im Bild sehr nahe an der Abtastfrequenz liegt. Bei älteren Kameras mit Sensoren mit niedriger Auflösung (und daher mit niedriger Abtastfrequenz) war Moiré ein ernstes Problem mit vielen Arten von Bilddetails, sodass AA-Filter stark waren (nichts mit begrenzter Verarbeitungsleistung zu tun). Jetzt haben wir viel höhere Abtastfrequenzen, und Moiré zeigt erst dann Bilddetails mit viel höheren Frequenzen.
Eventuell werden die Abtastfrequenzen so hoch sein, dass die erforderlichen hochfrequenten Objektdetails nicht an Linsenfehlern und Beugungseffekten vorbeigehen und das AA-Filter überflüssig machen. Dies ist zum Teil der Grund, warum einige MF-Rückteile nicht über einen AA-Filter, eine super hohe Auflösung und Modefotografen verfügen, die gerne mit riesigen Profoto-Netzteilen auf 1: 32 fotografieren, um die Beleuchtung zu prüfen.
quelle
Das sind alles gute Antworten und gute Informationen. Ich habe eine sehr vereinfachte Erklärung. Gehen wir von 2D zu 1D (dasselbe Konzept gilt).
Wenn eine Frequenz auf Ihren Sensor trifft, die höher als die "maximal zulässige Frequenz" ist, wird tatsächlich eine Spiegelfrequenz in der unteren Seite erzeugt. Sobald Ihr Bild aufgenommen wurde, sehen Sie dieses niedrigere Signal, aber die Kamera oder Ihr Computer wissen nicht, ob es sich tatsächlich um ein niedrigeres Signal handelt oder ob es sich um ein Alias handelt, das aus einem zu hohen Signal erstellt wurde. Diese Informationen gehen verloren. Das ist der Grund für die "maximal zulässige Frequenz" oder die Nyquist-Frequenz. Es heißt, dies ist die höchste Frequenz, die abgetastet werden kann, und darüber gehen Informationen verloren.
Analog zu Audio: Nehmen wir an, Sie haben Ihr System so eingerichtet, dass Sie einen Frequenzbereich von 0 Hz bis 1000 Hz wünschen. Um einen kleinen zusätzlichen Raum zu lassen, probieren Sie bei 3000 Hz, was Ihren Niquist zu 1500 Hz macht. Hier kommt der aa-Filter ins Spiel. Sie möchten nicht, dass etwas über 1500 Hz eintritt. In Wirklichkeit beginnt Ihre Abschaltung direkt nach 1000 Hz, aber Sie stellen sicher, dass bis zu 1500 Hz nichts mehr übrig ist.
Nehmen wir an, Sie vergessen den aa-Filter und lassen einen Ton von 2500 Hz in Ihren Sensor ein. Es wird um die Abtastrate (3000 Hz) gespiegelt, sodass Ihr Sensor einen Ton bei 500 Hz (3000 Hz - 2500 Hz) aufnimmt. Jetzt, da Ihr Signal abgetastet ist, wissen Sie nicht, ob die 500-Hz-Frequenz tatsächlich vorhanden war oder ob es sich um einen Alias handelt.
btw. Die Spiegelbilder treten für alle Frequenzen auf, sind jedoch kein Problem, solange Sie sich nicht über dem Nyquist befinden, da Sie sie später leicht herausfiltern können. Beispiel für einen Eingangston: 300 Hz. Du wirst Aliase bei (3000 - 300 = 2700hz [und korrekterweise auch 3000 + 300 = 3300hz]) haben. Da Sie jedoch wissen, dass Sie nur bis zu 1000 Hz in Betracht ziehen, können diese problemlos entfernt werden. Das Problem tritt also wieder auf, wenn die Spiegelbilder in das Spektrum kommen, das Sie tatsächlich wollen, weil Sie den Unterschied nicht erkennen können und das ist, was sie mit "eingebrannt" meinen.
hoffe das hilft
quelle