Ich habe gelesen, dass es vorteilhaft ist, bestimmte Transformationen allgemeiner Funktionen auf Datensätze anzuwenden, bevor sie auf Modelle für maschinelles Lernen treffen. Diese basieren auf der Verteilung der Funktionen des Datensatzes. Beispiel: Anwenden von Protokolltransformationen auf verzerrte normalverteilte Features. Einige Beispiele hier .
Soweit ich weiß, ist "Automatic Feature Engineering" (auch bekannt als "Feature Learning") ein Hauptsegen des Deep Learning. Ich weiß, dass dies Funktionskombinationen umfasst. aber meine Vermutung sagt, dass dies auch gelernte Feature-Transformationen gemäß den oben genannten beinhaltet? Wenn Sie also tiefe Netzwerke mit gut abgestimmten Hypern verwenden, können Feature-Transformationen sicher aus der Verantwortung des Menschen entfernt werden - das heißt, werfen Sie all dieses log / square / box-cox-Zeug weg?
[Bearbeiten] Extra: Behandelt dies auch die "Funktionsauswahl" (Entscheidung, welche Eingaben nicht enthalten sein sollen) für Sie?
Die Art und Weise, wie ich Feature Engineering ala-Box Cox betrachte, ist, dass wir ein Modell haben, das Normalität erfordert, wir haben keine normalen Daten, also führen wir eine Transformation durch, um zu normalen Daten zu gelangen. Einerseits ist es wahr, dass neuronale Netze keine normalisierten Daten benötigen. Warum also Feature Engineer? Auf der anderen Seite kann, während ein neuronales Netz möglicherweise irgendwann dort ankommt, manchmal das von Menschen durchgeführte Feature-Engineering die anfängliche Konvergenzrate enorm unterstützen. Zum Beispiel erhöht im Fall von Mehrkanalsignaldaten das Durchführen der Fourier-Zerlegung und das Berechnen der Kreuzkorrelationen im Voraus die Geschwindigkeit, mit der das neuronale Netz zur Klassifizierung gelangen kann, erheblich (um ein wirklich spezifisches Beispiel zu geben). Um ein vernünftigeres Beispiel zu nennen: Wenn Sie wissen, dass Ihre Daten viele Ausreißer haben und diese nicht wichtig sind, ist das Entfernen von Ausreißern eine Form des Feature-Engineerings. Das Netzwerk könnte dann irgendwann lernen, es zu ignorieren, aber es könnte ewig dauern. Wenn Sie also ziemlich sicher sind, dass die Transformation etwas Wichtiges an Ihren Daten hervorheben wird, transformieren Sie es, wenn nicht, dann vielleicht auch nicht.
quelle