Wird das gesamte spektrale Rendering als Simulation behandelt? Gibt es Techniken, die besser auf das "Consumer" -Rendering zugeschnitten sind, z. B. für Echtzeit oder auch nur "realistisches Aussehen ohne Lösung vollständiger physikalischer Gleichungen"?
Ich würde gerne verstehen, wie wir mit dem Rendern von Spektraleffekten umgehen. Es scheint, dass ein Photon als ein Bereich von Wellenlängen und einfallend mit einer Oberfläche beschrieben werden muss
- ersetzt das Original und löst mehrere neue Photonen über die Spektralfunktion hinweg auf, von denen jedes seinen eigenen neuen Vektor hat
- behält das ursprüngliche (oder geringfügig modifizierte) Photon bei einem bestimmten Schwellenwert bei
Ich würde es vorziehen, in die Richtung bestehender Arbeiten zu weisen, würde aber jede Färbung dieses Themas begrüßen.
lighting
photo-realistic
color-science
New Alexandria
quelle
quelle
Antworten:
Am häufigsten habe ich Photonen mit verschiedenen Wellenlängen gesehen. Man rendert dann mit jeder Wellenlänge und mischt die Ergebnisse in das endgültige Bild.
"Bestehende Arbeit": Psychopath Renderer und das geheime Leben der Photonen .
quelle
Eine hackige Methode, die ich bei Echtzeit-Raytracern / Ray Marching gesehen habe, besteht darin, einen Strahl pro Farbkanal (RGB) zu werfen und Dinge zu tun, die ähnliche Brechungsindizes pro Farbkanal haben.
quelle