Kennt jemand irgendwelche Algorithmen oder kann mathematisch erklären, wie Helligkeit (EV) in der Nachbearbeitung ausgeführt wird? Passt es die Helligkeit / RBG / Kontrast für jedes Pixel an? Bezieht es sich auf das Histogramm?
Was sind die technischen Details der Belichtungskorrektur für ein unterbelichtetes Bild bei der Nachbearbeitung?
EDIT: In dieser Frage hier wurde ein Link gepostet. Es enthält Beispiele zum Ändern des Elektrofahrzeugs und bewegt sich nach links / rechts. In Matt Grumms Antwort gibt er an, dass jedes Pixel "multipliziert" wird (was meiner Meinung nach anzeigt, dass das Histogramm nach oben / unten verschoben wird).
Kann jemand erklären, warum dies der Fall ist? (Dieser EV ändert sich von links nach rechts)
post-processing
software
exposure
BBking
quelle
quelle
Antworten:
Ich weiß, dass wir alle begeistert sind von Digitalkameras, aber Tatsache ist, dass wir das nicht tun . Wir haben analoge Kameras, die zufällig ein digitales Ausgabeformat haben (und viele digitale Schaltkreise, die nicht direkt mit dem Bild zusammenhängen).
Immer wenn ein analoges Signal in ein digitales Signal umgewandelt wird, führen Sie Quantisierungsrauschen ein. Das heißt, es ist sehr unwahrscheinlich, dass das Signal, das in die Konvertierung eingeht, genau mit dem Wert der digitalen Zahl übereinstimmt, die am anderen Ende herauskommt - stellen Sie sich dies als Kürzungs- oder Rundungsfehler vor.
Wenn Sie eine digitale Bilddatei nachbearbeiten, wird das von der Kamera hinzugefügte Quantisierungsrauschen "eingebrannt". Es spielt keine Rolle, mit welcher Bittiefe Sie in der Post arbeiten. Die Daten, mit denen Sie arbeiten, enthalten sowohl die analogen (Well-, Quanten-) Rauschkomponenten (Wärme- und Schussrauschen, Verstärkerverzerrung usw.) als auch das Quantisierungsrauschen der Kameraausgabe. Die Qualität der Basisdaten ist nicht perfekt, daher führt jede Berechnung der fehlerhaften Daten zu einer fehlerhaften Ausgabe. GIGO , wie sie sagen.
In der Kamera hingegen haben Sie die Möglichkeit, das analoge Signal vor der Quantisierung zu verstärken (oder zu dämpfen) . Das hilft bei Rauschen im analogen Bereich überhaupt nicht, reduziert aber das Quantisierungsrauschen bei einem bestimmten Helligkeitsgrad .
Angenommen, Sie haben einen Analogwert von 4,4 Whatchamacallits. Wenn Sie mit ISO 100 aufnehmen, wandelt unsere hypothetische "digitale" Kamera diesen Wert in einen digitalen Wert von genau 4 um. Wenn Sie die scheinbare Belichtung in der Post erhöhen, arbeiten Sie nicht mehr mit der 4, die abgeschnitten ist. Wenn Sie den ISO-Wert in der Kamera erhöhen (um weniger als einen Punkt), wird dieser Wert von 4,4 durch analoge Schaltkreise verstärkt, bevor er in digital umgewandelt wird, und kann zu einem um 1 höheren digitalen Wert führen, als die volldigitale Verarbeitung berechnet. Ein Einzelbitunterschied mag nicht viel klingen, aber wenn Sie anfangen, alle Fehler während der Verarbeitung zu akkumulieren, ist ein bestimmtes Pixel möglicherweise ziemlich weit von den Werten entfernt, die es haben sollte. Das ist Lärm.
(Es gibt auch die Tatsache, dass die Kamera ihre eigenen Reaktionseigenschaften "kennt" und diese bei der Verarbeitung berücksichtigen kann. Lightroom führt beispielsweise keine kameraspezifische, ISO-basierte Subtraktion von Sensorrauschen durch. Kameras können dies jedoch nicht alle tun .)
quelle
Ist das die Formel, nach der Sie suchen?
Dies bedeutet im Grunde, dass Sie für jeden Kanal (jedes Pixels) der RGB-Daten diese mit 2 ^ EV multiplizieren und dann auf den Maximalwert für Ihre Daten ausschneiden. Für 8-Bit-Farben beträgt RGBmax 255, für 16-Bit-Farben 65535 usw.
EV ist hier ein relativer EV, sodass EV + 2.0 jedes Pixel mit dem Faktor vier multipliziert (aufhellt) und EV-2.0 jedes Pixel mit dem Faktor vier dividiert (abdunkelt).
Die Formel selbst hängt nicht vom Histogramm ab. Wenn Sie jedoch entscheiden müssen, welcher Belichtungswert verwendet werden soll, um das Bild optimal anzupassen, werden aus dem Histogramm Statistiken erstellt, um den EV zu berechnen.
quelle
dcraw
mit dem-4
Schalter, um sicherzustellen, dass die Protokolltransformation nicht selbst durchgeführt wird. Versuchen Sie dann, selbst eine grundlegende Rohkonvertierung durchzuführen und während des Vorgangs eine Belichtungskorrektur anzuwenden.NB die Frage wurde bearbeitet, da Stans Antwort auf diese Frage eine andere Frage betrifft:
Es kann einfach sein, alle Pixelwerte zu multiplizieren (z. B. Helligkeit, Kontrast ist kein Begriff, der für einzelne Pixel gilt) und einen Versatz anzuwenden. Wenn dies nach der Demosaikierung erfolgt, multiplizieren Sie einfach die Werte für Rot, Grün und Blau mit demselben Faktor.
Der Prozess der Belichtungskorrektur ist im Zusammenhang mit der RAW-Konvertierung etwas komplexer, da Kamerasensoren von Natur aus lineare Geräte sind, während die meisten RAW-Konverter eine nichtlineare Tonkurve anwenden, um die kontrastreiche S-Kurve zu emulieren, die Sie mit Film erhalten.
Daher ist der beste Zeitpunkt für eine Belichtungskorrektur, bevor diese angewendet wird. Dies bedeutet im Grunde, dass Sie die EC-Funktion Ihres RAW-Konverters verwenden und nicht warten müssen, bis Sie Photoshop exportiert haben, da die nichtlineare Kurve bis dahin mit ziemlicher Sicherheit angewendet wurde.
Die Situation ist noch komplexer, da einige RAW-Konverter * "verdrillte" Farbprofile verwendeten, die dazu führen, dass der Farbton / die Sättigung je nach Intensität auf unterschiedliche Werte abgebildet werden. Dies geschieht, um auf Kosten der Genauigkeit angenehmere Farben zu erzielen, und kann die Ergebnisse der Belichtungskorrektur beeinflussen.
Einige RAW-Konverter bieten auch Tools zum Wiederherstellen von Lichtern und zum Verstärken von Schatten. Diese nehmen lokale Anpassungen vor (dh sie berücksichtigen viel mehr als einzelne Pixelwerte). Wenn Sie die Details dieser Algorithmen kennen möchten, müssen Sie wahrscheinlich warten und hoffen, dass hier ein Lightroom-Entwickler auftaucht.
* Wenn ich "einige RAW-Konverter" sage, spreche ich im Grunde genommen von Lightroom / ACR, da dies der einzige ist, den ich untersucht habe. Andere fortgeschrittene RAW-Konverter tun dies wahrscheinlich ähnlich.
quelle
Mathematisch wird die Helligkeit einer Matrix (eines Bildes) insgesamt beeinflusst, indem auf den CIE L * -Funktionswert des Pixelfarbtons eingewirkt wird. Es ist eine arithmetische Beziehung. Addiere, subtrahiere, multipliziere und dividiere.
Auch hier wird mathematisch eine Transformationsmatrix (numerisch) mit der vorhandenen Matrix in pp verknüpft. Diese können selektiv für das Subjekt oder für die Gesamtmatrix (Bild) erstellt werden.
Gute und schlechte Belichtung sind willkürliche Begriffe - solange der Beleuchtungsstärkebereich des Motivs im nützlichen Bereich des Kamerasensors liegt. Der Motivbereich kann extrem breit oder eng sein.
Hinweis: Das Histogramm ist eine visuelle Hilfe, die die relative Verteilung der Beleuchtungsstärken im Bild darstellt. Es ist linear. Es hat nichts mit Belichtung zu tun, dem wechselseitigen Verhältnis von Intensität und Zeit, das immer logarithmisch dargestellt wird.
quelle
Was sind die technischen Details der Belichtungskorrektur für ein unterbelichtetes Bild bei der Nachbearbeitung?
Durch bloßes Erhöhen aller Werte in einem Bild werden alle Werte um den gleichen Betrag erhöht. Diese "lineare" Reaktion ist für digitale Bilder typisch.
Wir nehmen die Dinge nicht so wahr und das resultierende Bild erscheint unnatürlich.
Das analoge Bild (Filmemulsion) erschien natürlicher, da die Reaktion einer fotografischen Emulsion der Reaktion des menschlichen visuellen Systems näher kommt. Es wurde auf eine "S" -förmige Kurve Bezug genommen. Diese charakteristische "S" -Form ist eine analoge Antwort.
Das Kompensieren des Unterschieds zwischen unserer proportionalen menschlichen visuellen Antwort und der linearen digitalen Antwort lädt verschiedene Mittel ein, um den Unterschied ästhetisch zu harmonisieren.
Es muss einen wirksamen Weg geben, um eine proportionale Kompensation für die Differenz bereitzustellen. Das ist die Technik.
quelle