Bei den meisten Beschreibungen von Monte-Carlo-Rendering-Methoden, wie z. B. der Pfadverfolgung oder der bidirektionalen Pfadverfolgung, wird davon ausgegangen, dass die Stichproben unabhängig generiert werden. es wird ein Standard-Zufallszahlengenerator verwendet, der einen Strom unabhängiger, gleichmäßig verteilter Zahlen erzeugt.
Wir wissen, dass Stichproben, die nicht unabhängig voneinander ausgewählt werden, sich positiv auf das Rauschen auswirken können. Beispielsweise sind Sequenzen mit geschichteter Abtastung und geringer Diskrepanz zwei Beispiele für korrelierte Abtastschemata, die fast immer die Renderzeiten verbessern.
Es gibt jedoch viele Fälle, in denen die Auswirkung der Stichprobenkorrelation nicht so eindeutig ist. Zum Beispiel erzeugen Monte-Carlo-Methoden der Markov-Kette wie Metropolis Light Transport einen Strom korrelierter Abtastwerte unter Verwendung einer Markov-Kette; Bei Viellichtmethoden wird ein kleiner Satz von Lichtpfaden für viele Kamerapfade wiederverwendet, wodurch viele korrelierte Schattenverbindungen entstehen. Sogar die Photonenkartierung wird effizienter, wenn Lichtpfade über viele Pixel hinweg wiederverwendet werden. Dies erhöht auch die Probenkorrelation (wenn auch auf voreingenommene Weise).
Alle diese Rendering-Methoden können sich in bestimmten Szenen als nützlich erweisen, in anderen jedoch als erschwerend. Es ist nicht klar, wie die durch diese Techniken verursachte Fehlerqualität quantifiziert werden kann, abgesehen vom Rendern einer Szene mit verschiedenen Rendering-Algorithmen und dem Erkennen, ob eine besser als die andere aussieht.
Die Frage ist also: Wie beeinflusst die Probenkorrelation die Varianz und die Konvergenz eines Monte-Carlo-Schätzers? Können wir irgendwie mathematisch quantifizieren, welche Art von Stichprobenkorrelation besser ist als andere? Gibt es andere Überlegungen, die beeinflussen könnten, ob die Probenkorrelation vorteilhaft oder schädlich ist (z. B. Wahrnehmungsfehler, Animationsflackern)?
quelle
Antworten:
Es ist ein wichtiger Unterschied zu machen.
Monte-Carlo-Methoden der Markov-Kette (z. B. Metropolis Light Transport) erkennen voll und ganz die Tatsache an, dass sie viele hochkorrelierte Ergebnisse liefern. Dies ist eigentlich das Rückgrat des Algorithmus.
Auf der anderen Seite gibt es Algorithmen wie Bidirectional Path Tracing, Many Light Method und Photon Mapping, bei denen die entscheidende Rolle das Multiple Importance Sampling und seine Balance-Heuristik spielt. Die heuristische Optimierung des Gleichgewichts ist nur für unabhängige Stichproben bewiesen. Viele moderne Algorithmen haben Stichproben korreliert und für einige von ihnen führt dies zu Problemen, für andere nicht.
Das Problem mit korrelierten Stichproben wurde in der Arbeit Probabilistic Connections for Bidirectional Path Tracing bestätigt . Wenn sie die Balance-Heuristik geändert haben, um die Korrelation zu berücksichtigen. Schauen Sie sich Abbildung 17 im Artikel an, um das Ergebnis zu sehen.
Ich möchte darauf hinweisen, dass die Korrelation "immer" schlecht ist. Wenn Sie es sich leisten können, eine brandneue Probe herzustellen, dann tun Sie es. Aber die meiste Zeit können Sie es sich nicht leisten und hoffen, dass der Fehler aufgrund der Korrelation gering ist.
Bearbeiten Sie, um das "immer" zu erklären : Ich meine dies im Kontext der MC-Integration
Wo messen Sie den Fehler mit der Varianz des Schätzers
Wenn die Stichproben unabhängig sind, ist der Kovarianzterm Null. Korrelierte Stichproben machen diesen Term immer ungleich Null, wodurch die Varianz des endgültigen Schätzers zunimmt.
Dies ist auf den ersten Blick etwas widersprüchlich, was wir bei geschichteten Stichproben feststellen, weil die Schichtung den Fehler senkt. Sie können jedoch nicht nachweisen, dass geschichtete Stichproben allein aus probabilistischer Sicht zum gewünschten Ergebnis konvergieren, da im Kern der geschichteten Stichproben keine Wahrscheinlichkeit besteht.
Bei der geschichteten Stichprobe handelt es sich im Grunde genommen nicht um eine Monte-Carlo-Methode. Die geschichtete Abtastung basiert auf Standardquadraturregeln für die numerische Integration, die sich hervorragend für die Integration von Glattfunktionen in kleinen Dimensionen eignen. Dies ist der Grund, warum es zur Handhabung von direkter Beleuchtung verwendet wird, was ein Problem mit geringen Abmessungen darstellt, dessen Glätte jedoch umstritten ist.
Die geschichtete Abtastung ist also eine andere Art der Korrelation als beispielsweise die Korrelation in Many-Light-Methoden.
quelle
Die halbkugelförmige Intensitätsfunktion, dh die halbkugelförmige Funktion des einfallenden Lichts multipliziert mit der BRDF, korreliert mit der Anzahl der pro Raumwinkel erforderlichen Proben. Nehmen Sie die Stichprobenverteilung einer Methode und vergleichen Sie sie mit dieser hemisphärischen Funktion. Je ähnlicher sie sind, desto besser ist die Methode in diesem speziellen Fall.
Da diese Intensitätsfunktion normalerweise nicht bekannt ist , werden für alle diese Methoden Heuristiken verwendet. Wenn die Annahmen der Heuristik erfüllt sind, ist die Verteilung besser (= näher an der gewünschten Funktion) als eine Zufallsverteilung. Wenn nicht, ist es schlimmer.
Bei der Wichtigkeitsabtastung wird beispielsweise die BRDF zum Verteilen von Abtastwerten verwendet, was einfach ist, aber nur einen Teil der Intensitätsfunktion verwendet. Eine sehr starke Lichtquelle, die eine diffuse Oberfläche in einem flachen Winkel beleuchtet, wird nur wenige Proben erhalten, obwohl ihr Einfluss immer noch sehr groß sein kann. Metropolis Light Transport erzeugt aus früheren Proben neue Proben mit hoher Intensität, was für wenige starke Lichtquellen gut ist, aber nicht hilft, wenn das Licht gleichmäßig aus allen Richtungen einfällt.
quelle