Ich lerne etwas über die Auswahl von Funktionen. Ich kann sehen, warum es für den Modellbau wichtig und nützlich wäre. Aber konzentrieren wir uns auf überwachte Lernaufgaben (Klassifizierungsaufgaben). Warum ist die Merkmalsauswahl für Klassifizierungsaufgaben wichtig?
Ich sehe viel Literatur über die Auswahl von Funktionen und deren Verwendung für überwachtes Lernen, aber das verwirrt mich. Bei der Funktionsauswahl geht es darum, zu ermitteln, welche Funktionen weggeworfen werden sollen. Intuitiv scheint das Wegwerfen einiger Funktionen selbstzerstörerisch zu sein: Es wirft Informationen weg. Es scheint, als sollte das Werfen von Informationen nicht helfen.
Und selbst wenn das Entfernen einiger Funktionen hilfreich ist, wenn wir einige Funktionen wegwerfen und den Rest dann in einen überwachten Lernalgorithmus einspeisen, warum müssen wir das selbst tun, anstatt den überwachten Lernalgorithmus damit umgehen zu lassen? Wenn eine Funktion nicht hilfreich ist, sollte dann kein anständiger überwachter Lernalgorithmus dies implizit entdecken und ein Modell lernen, das diese Funktion nicht verwendet?
So intuitiv hätte ich erwartet, dass die Auswahl von Funktionen eine sinnlose Übung ist, die niemals hilft und manchmal weh tun kann. Aber die Tatsache, dass es so weit verbreitet ist und darüber geschrieben wird, lässt mich vermuten, dass meine Intuition fehlerhaft ist. Kann jemand eine Vorstellung davon geben, warum die Auswahl von Funktionen beim überwachten Lernen nützlich und wichtig ist? Warum verbessert es die Leistung des maschinellen Lernens? Kommt es darauf an, welchen Klassifikator ich benutze?