Was ist der Mittelwert Null und die Einheitsvarianz in Bezug auf Bilddaten?

7

Ich bin neu im tiefen Lernen. Ich versuche einige Konzepte zu verstehen. Ich weiß, dass "Mittelwert" ein Durchschnittswert ist und "Varianz" eine Abweichung vom Mittelwert ist. Ich habe einige Forschungsarbeiten gelesen, alle sagen, dass wir unsere Daten zuerst vorverarbeiten. Aber wie hängen diese Konzepte mit der Bildvorverarbeitung zusammen? Warum werden diese Konzepte als Vorverarbeitung von Bilddaten verwendet?
Eigentlich kann ich nicht verstehen, wie diese Techniken zur Klassifizierung beitragen. Ich habe es bei Google gesucht, aber möglicherweise habe ich mit weniger aussagekräftigen Schlüsselwörtern gesucht.
Bitte tragen Sie meine sehr grundlegende Frage.

Rafay Zia Mir
quelle
1
Tatsächlich ist die Varianz der Durchschnitt der Quadrate der Unterschiede zum Mittelwert. Fragen Sie nach "Standardisierung" oder "Neuskalierung" als Vorverarbeitungsschritt? Es soll vermeiden, dass eine einzelne erklärende Variable die anderen dominiert, nur weil sie einen weiten Bereich numerischer Werte aufweist.
Henry
Dies wird normalerweise als Bildnormalisierung bezeichnet , und Sie können Gründe dafür im Link finden.
Alex R.
1
Hervorragende Antwort darauf, warum wir Merkmalsvektoren aus Wikipedia normalisieren: "Da der Wertebereich von Rohdaten stark variiert, funktionieren objektive Funktionen bei einigen Algorithmen für maschinelles Lernen ohne Normalisierung nicht richtig. Beispielsweise berechnen die meisten Klassifizierer den Abstand zwischen zwei Punkte durch den euklidischen Abstand. Wenn eines der Merkmale einen breiten Wertebereich aufweist, wird der Abstand durch dieses spezielle Merkmal bestimmt. Daher sollte der Bereich aller Merkmale so normalisiert werden, dass jedes Merkmal ungefähr proportional zum endgültigen d beiträgt . "
Anna Vopureta
Dieser Kommentar wäre stärker, wenn er näher erläutern würde, wie die Neuskalierung der Varianz mit 0 mittleren Mittelwerten mit Bildern zusammenhängt.
Sycorax sagt Reinstate Monica
@Sycorax Bilder werden als reguläre Merkmalsvektoren behandelt, die dem Modell zugeführt werden. Bilder haben nichts Besonderes, alle Aussagen zur Normalisierung gelten gleichermaßen für Bilder und andere Merkmalsvektoren.
Anna Vopureta

Antworten:

4

Dies ist eine sehr gute Frage, und Sie müssen dies verstehen, um mehr Verständnis für tiefes Lernen zu erlangen.

Grundsätzlich haben Sie Rohbilder, lassen Sie uns ein Bild aufnehmen. Dieses Bild hat 3 Kanäle und in jedem Kanal liegen die Pixelwerte zwischen 0 und 255.

Unser Ziel hier ist es, den Wertebereich für alle Pixel in den drei Kanälen auf einen sehr kleinen Bereich zu beschränken. Hier kommt die Vorverarbeitung ins Spiel. Aber denken Sie nicht, dass die Vorverarbeitung nur die mittleren und Standardtechniken umfasst, es gibt viele andere wie PCA, Bleaching usw.

1) Verwenden des Mittelwerts: Durch Berechnen des Mittelwerts von beispielsweise erhalten Sie mit den ersten roten Pixelwerten über alle Trainingsbilder den durchschnittlichen roten Farbwert, der über alle Trainingsbilder an der ersten Position vorhanden ist. Ebenso finden Sie dies für alle roten Kanalwerte, grüne Kanalwerte. Schließlich erhalten Sie ein durchschnittliches Bild von allen Trainingsbildern.

Wenn Sie nun dieses mittlere Bild von allen Trainingsbildern subtrahieren, transformieren Sie offensichtlich die Pixelwerte der Bilder. Das Bild ist für das menschliche Auge nicht mehr interpretierbar. Die Pixelwerte liegen nun im Bereich von positiv bis negativ, wobei der Mittelwert bei Null liegt .

2) Wenn Sie diese nun erneut durch die Standardabweichung teilen, wird der Pixelwertbereich zuvor im Wesentlichen auf einen kleinen Bereich reduziert.

ABER WARUM ALLES? Ich werde aus meiner Erfahrung sagen, dass diese Vorverarbeitung der Bilder und die anschließende Übergabe dieser transformierten Bilder an das Klassifikatormodell schneller und besser ablaufen. Deshalb.

Wenn Sie sich mit tiefem Lernen beschäftigen, sollten Sie sich mit der Batch-Normalisierung befassen, nachdem Sie dieses Normalisierungskonzept verstanden haben

Sreekar Nimbalkar
quelle
5
Die Chargennormalisierung hängt mit der internen Verschiebung der Verteilung zusammen und hat nichts mit dem zu tun, wovon wir sprechen.
HelloWorld
1
"Meiner Erfahrung nach läuft das Modell schneller und besser", klingt nicht so überzeugend.
Anna Vopureta