Gibt es eine Software, die die Beleuchtung in einem vorhandenen Foto identifizieren kann?

8

Gibt es eine Anwendung, die einen ausgewählten Bereich eines Fotos aufnimmt und dessen Schätzung der Beleuchtungsparameter zurückgibt, die erforderlich sind, um die Lichtverhältnisse im ausgewählten Bereich des Fotos zu emulieren?

Meine Vermutung zu den zurückgegebenen Parametern umfasst: Lichtquellen, Quellendiffusität, Quellfarbe, Quellendauer, reflektierende / einfallende Lichtquelle, Quellenbewegung usw. (Ich begrüße Feedback zu diesen Vermutungen und zur Wahrscheinlichkeit dass es möglich ist, sie statisch zu modellieren.)

Fehler
quelle
1
Das scheint eine große Herausforderung zu sein. Wenn wir uns ein Foto ansehen, wenden wir kontextsensitives Wissen über das an, was wir betrachten (mit anderen Worten, wir haben eine Version von "normal" im Kopf, die wir mit dem Foto vergleichen können). Ich werde beeindruckt sein, wenn es etwas gibt, das dies kann.
D. Lambert
@D. Lambert: Stimmen Sie zu, obwohl einige der Algorithmen in PhotoShop Berechnungen für solche Dinge durchführen, aber meines Wissens gibt es keine Ausgabe, die für den externen Gebrauch lesbar ist. Dies bedeutet, dass diese Berechnungen als Eingabe für andere Berechnungen verwendet werden.
Fehler
2
Der Aufwand für die Erstellung einer solchen Software ist millionenfach, verglichen mit den 2-3 Stunden Training, die jemand benötigen würde, um die meisten Parameter ziemlich genau zu erraten. Auch einige dieser Dinge sind unmöglich herauszufinden ... Quellendauer?
Jędrek Kostecki
+1 @ Jędrek Kostecki: Guter Punkt in Bezug darauf, dass Menschen es (derzeit) schneller machen könnten, obwohl was den Spaß daran macht ... :-) ... "Quellendauer" zum Beispiel wurde ein Blitz verwendet.
Fehler
Ah, die beste Software der Welt ist wahrscheinlich das menschliche Gehirn. Hierfür könnten Algorithmen entwickelt werden, die auf der Grundlage von Lichtern und Schatten vernünftige Annäherungen machen könnten, aber warum? Das menschliche Gehirn wird unter der heutigen Technologie wahrscheinlich schneller zur Antwort springen als ein Computer.
John Cavan

Antworten:

5

In diesem Bereich wurde tatsächlich viel geforscht:

Die Ergebnisse sind jedoch begrenzt, da das Problem massiv unterbeschränkt ist, da es weit mehr Unbekannte als Daten gibt. Dies bedeutet, dass genaue Lösungen unmöglich sind und jede Antwort, die Sie erhalten, mehrdeutig ist.

Ein weiteres Problem für das, was Sie vorschlagen, ist, dass die Forschung in diesem Bereich auf das maschinelle Verständnis visueller Bilder gerichtet ist. Die Schätzung der Beleuchtung wäre wichtig, damit Roboter visuell durch ein Labyrinth navigieren können, da sie den Winkel von Wänden usw. beurteilen können. Diese Anwendungen stellen andere Anforderungen an die Software als das künstlerische Ziel, die Beleuchtung in einem guten Porträt für neu zu erstellen Beispiel.


In Bezug auf den Unterschied zwischen Forschung und kommerzieller Software bildet die Forschung von heute die Grundlage für die Software von morgen (einer der Gründe, warum ich jedes Jahr die Verfahren von SIGGRAPH durchforste). Das automatische Panorama-Nähen war einst ein Forschungsprojekt und wird heute als selbstverständlich angesehen. Ich erinnere mich, dass ich über inhaltsbezogene Größenänderungen gelesen habe, als sie in einer Computer Vision-Konferenz veröffentlicht wurden (damals hieß sie "Nahtschnitzen"), und es dauerte nur ein paar Jahre, bis sie zu einer Standardfunktion in Photoshop wurden.

Es gibt jedoch einen Unterschied zwischen einer inhaltsbewussten Füllung und dem, was Sie vorschlagen. Dies bedeutet, dass eine inhaltsbewusste Füllung Stunden der Retusche sparen kann und daher eine große Nachfrage besteht. Das Schätzen der Beleuchtungsbedingungen eines Fotos ist für jemanden, der sich mit Beleuchtung auskennt, ein sehr schneller Vorgang.


Ein letzter Hoffnungsschimmer liegt im Bereich der Videopostproduktion. Das Schätzen / Modellieren der ursprünglichen Lichtverhältnisse ist wichtig, um computergenerierte Animationen realistisch zu realem Filmmaterial zusammenzusetzen (Beleuchtungsinkonsistenzen treten bei bewegten Bildern weitaus häufiger auf als bei Standbildern). Das plus die zusätzliche Datenmenge, die in einem Videostream verfügbar ist, und ich würde mir vorstellen, dass Sie die Funktion sehen, die Sie nach dem ersten Erscheinen in der Videobearbeitungssoftware sehen.

Matt Grum
quelle
+1 @Matt Grum: Danke, die Forschung hilft dabei, die Probleme bei der Lösung dieses Problems zu "beleuchten". Ich vermute, dass Robotersensoren und KI höchstwahrscheinlich die Korrelation von Längsbeobachtungen über Zeit und Raum nutzen würden, einschließlich Filter für verschiedene Wellenlängen des Lichts; Zum Beispiel Infrarot, um Wärme zu erfassen. Meinen Sie damit, dass künstlerische Ziele höchstwahrscheinlich Schlussfolgerungen erfordern würden, die über den Standort der Kamera, der Lichter und der Objekte hinausgehen.
Fehler
Ich denke, man sollte darauf hinweisen, wenn es um automatisches Pano geht. Beim Nähen stehen Ihnen alle erforderlichen Informationen in den Bildern zur Verfügung, die Sie sticken. Dies steht in starkem Kontrast zu der Vermutung, dass die Beleuchtung eine Szene beleuchtet, da Sie (außerhalb eines Lichts IN der Szene) nie wirklich wissen können, woher das Licht stammt. Beim Pano-Stitching sind Sie reich an Informationen ... beim Erraten von Lichtquellen sind Sie anämisch. Wenn es um Video und CG geht, haben Sie die Möglichkeit, EXAKTE Beleuchtungsinformationen explizit einzugeben, und das Erraten ist nicht erforderlich.
jrista
1
@jrista das stimmt, aber beim inhaltsbewussten Füllen haben Sie keine Informationen über den Bereich, den Sie füllen möchten. Es ist alles eine Schlussfolgerung - wie das Problem der Beleuchtungsschätzung wäre es auf einmal ziemlich unwahrscheinlich gewesen, aber jetzt ist es eine Standardfunktion in Photoshop, GIMP
Matt Grum
+1 @Matt Grum: Tatsächlich war inhaltsbewusstes Füllen das, was ich mir als grobes Beispiel dafür vorgestellt hatte. Hier ist ein Video, das ein Beispiel für seine Verwendung zeigt .
Fehler
2
@MattGrum: Wenn Sie untersuchen, wie inhaltsbewusstes Füllen funktioniert, ist es bei weitem nicht so informationsanämisch wie die Gastbeleuchtung. Ein wesentlicher Teil der inhaltsbewussten Füllung ist das Klonen von Inhalten in der Nähe sowie einige grundlegende intelligente Algorithmen und Musterabgleiche, um den ausgefüllten Inhalt kongruent und musterkonsistent zu machen. Sie haben eine Menge Informationen zur Verfügung, um inhaltsbewusstes Füllen zu ermöglichen ... wie Pano-Stitching. Die einzige Information, die Sie erraten müssen, ist, was von der Szene reflektiert wird. Die Menge der verfügbaren nützlichen Informationen ist um Größenordnungen unterschiedlich.
jrista
6

Ehrlich gesagt, nein - nicht mit derzeit verfügbarer Software. Hier wird vielleicht geforscht und wer weiß, was die Zukunft bringt, aber im Moment nein.

Es gibt zu viele Informationen, als dass die Software sie verarbeiten könnte, um sie zu verarbeiten - insbesondere auf Verbraucherebene. Zumindest müssten Sie der Software eine Möglichkeit geben, zu sagen, wie das Thema UNLIT aussah. Das ist der Vorteil, den ein Mensch hat - wir haben eine Vorvisualisierung im Kopf, wie das Motiv normal aussehen würde. Dies ermöglicht es einer Person zu sagen, "nun, sie hat dort normalerweise keinen verblassenden dunklen Bereich oder einen hellen Fleck dort drüben".

Darüber hinaus gibt es VIELE verschiedene Möglichkeiten, um den gleichen Effekt in der Beleuchtung zu erzielen (obwohl viele häufiger als andere sind).

rfusca
quelle
@rfusca: Ja, das "Vorbewusstsein" der reflektierenden Eigenschaften von Objekten und die Beziehung der Kamera zu den Lichtern und Objekten würde die Wahrscheinlichkeit erhöhen, dass dies möglich wäre. Halten Sie dies dennoch für möglich. Schätzungen sind schließlich nicht perfekt.
Fehler
@blunders: Bestenfalls könnten die Schätzungen Ihnen grobe Informationen darüber geben, wie viel REFLECTANCE in einer Szene beobachtet werden kann ... aber ich betone grob . Der Versuch, mehr als eine Rouge-Annahme über die Anzahl der Lichtquellen, die Quellenattribute (Farbe, Diffusität, Emissionsdauer) usw. zu erhalten, erfordert nur eine Menge Vermutungen, die auf einem auf Beobachtungen basierenden Urteil beruhen. Wenn es eine Sache gibt, an der Computer saugen ... das ist es. Um eine genaue, fundierte Vermutung darüber anzustellen, welche Beleuchtung eine Szene beleuchtet haben könnte, ist ein erfahrener Verstand erforderlich .
jrista
Sie könnten argumentieren, dass eine ausreichend fortgeschrittene künstliche Intelligenz genug lernen könnte, um ein erfahrener Geist in Bezug auf das Beobachten der Beleuchtung von Fotografien zu werden ... aber im Moment bezweifle ich, dass es überhaupt so etwas in einem rudimentären Maßstab gibt, geschweige denn etwas das könnte zu durchweg nützlichen Ergebnissen führen.
jrista
@jrista - Richtig, meine Antwort spiegelt wider, ob es mit der aktuellen Technologie wahrscheinlich etwas gibt, das realistische, brauchbare und genaue Ergebnisse liefert.
Rfusca
Ich denke, das ist wahrscheinlich der Fall. Es würde mich jedoch überhaupt nicht wundern, wenn in diesem Bereich geforscht würde. Es scheint ein interessantes Problem zu sein. Also würde ich zögern, ohne Studium "Nein" zu sagen.
Bitte lesen Sie mein Profil