Nach meinem Verständnis können wir nur eine Regressionsfunktion aufbauen, die innerhalb des Intervalls der Trainingsdaten liegt.
Zum Beispiel (nur eines der Panels ist erforderlich):
Wie würde ich mit einem KNN-Regressor die Zukunft vorhersagen? Auch hier scheint es sich nur um eine Funktion zu handeln, die innerhalb des Intervalls der Trainingsdaten liegt.
Meine Frage: Was sind die Vorteile eines KNN-Regressors? Ich verstehe, dass es ein sehr leistungsfähiges Instrument für die Klassifizierung ist, aber es scheint, dass es in einem Regressionsszenario schlecht abschneiden würde.
regression
machine-learning
k-nearest-neighbour
gung - Wiedereinsetzung von Monica
quelle
quelle
Antworten:
Lokale Methoden wie K-NN sind in manchen Situationen sinnvoll.
Ein Beispiel, das ich in der Schule gemacht habe, hatte mit der Vorhersage der Druckfestigkeit verschiedener Mischungen von Zementbestandteilen zu tun. Alle diese Inhaltsstoffe waren in Bezug auf die Reaktion oder die Reaktion relativ nicht flüchtig, und KNN machte zuverlässige Vorhersagen. Mit anderen Worten, keine der unabhängigen Variablen hatte eine unverhältnismäßig große Varianz, um dem Modell entweder einzeln oder möglicherweise durch gegenseitige Interaktion zu verleihen.
Nehmen Sie dies mit einem Körnchen Salz, weil ich keine Datenuntersuchungstechnik kenne, die dies schlüssig zeigt, aber intuitiv erscheint es vernünftig, wenn Ihre Merkmale einen angemessenen Grad an Abweichungen aufweisen, ich weiß nicht, welchen Anteil Sie haben könnten KNN-Kandidat. Ich würde gerne wissen, ob Studien und daraus resultierende Techniken zu diesem Zweck entwickelt wurden.
Wenn Sie es aus einer verallgemeinerten Domänenperspektive betrachten, gibt es eine breite Klasse von Anwendungen, bei denen ähnliche "Rezepte" ähnliche Ergebnisse liefern. Dies schien sicherlich die Situation zu beschreiben, in der die Ergebnisse des Vermischens von Zement vorhergesagt wurden. Ich würde sagen, wenn Sie Daten hätten, die sich gemäß dieser Beschreibung verhalten, und zusätzlich, dass Ihr Abstandsmaß für die vorliegende Domäne natürlich ist und Sie ausreichende Daten hätten, würde ich mir vorstellen, dass Sie nützliche Ergebnisse von KNN oder einer anderen lokalen Methode erhalten sollten .
Sie profitieren auch von einer extrem geringen Verzerrung, wenn Sie lokale Methoden anwenden. Manchmal gleichen generalisierte additive Modelle (GAM) Bias und Varianz aus, indem jede einzelne Variable mit KNN so angepasst wird, dass:
Der additive Anteil (die Pluszeichen) schützt vor hoher Varianz bei Verwendung von KNN anstelle vonfn(xn)
Ich würde KNN nicht so schnell abschreiben. Es hat seinen Platz.
quelle
Ich sage es nicht gern, aber eigentlich lautet die kurze Antwort: "Voraussagen in die Zukunft" ist weder mit einem Knn noch mit einem anderen derzeit existierenden Klassifikator oder Regressor wirklich möglich.
Sicher können Sie die Linie einer linearen Regression oder die Hyperebene einer SVM extrapolieren, aber am Ende wissen Sie nicht, wie die Zukunft aussehen wird. Soweit wir wissen, ist die Linie möglicherweise nur ein kleiner Teil einer kurvigen Realität. Dies wird deutlich, wenn Sie beispielsweise Bayes'sche Methoden wie Gauß'sche Prozesse betrachten, und Sie werden eine große Unsicherheit feststellen, sobald Sie die "bekannte Eingabedomäne" verlassen.
Natürlich können Sie versuchen, zu verallgemeinern, was heute passiert ist und was morgen wahrscheinlich passiert, was mit einem bekannten Regressor problemlos möglich ist (z. B. können die Kundenzahlen des letzten Jahres in der Weihnachtszeit einen guten Hinweis auf die diesjährigen Zahlen geben). Sicher, andere Methoden können Trends und so weiter beinhalten, aber am Ende können Sie sehen, wie gut das funktioniert, wenn es um die Börse oder langfristige Wettervorhersagen geht.
quelle
Zuerst ein Beispiel für "Wie würde ich mit einem KNN-Regressor die Zukunft vorhersagen?".
Stimmen Sie die Gewichte ab, siehe zB Inverse-Distance-Weighted-Idw-Interpolation-With-Python ,
und die Distanz - Metrik für "Nearest neighbour" in 7d.
"Was sind die Vorteile eines KNN-Regressors?"
Zu den guten Kommentaren anderer würde ich hinzufügen, dass sie einfach zu codieren und zu verstehen sind und dass sie auf Big Data skalieren.
Nachteile: daten- und stimmungsempfindlich, wenig verständnisvoll .
Ihre erste Zeile "Wir können nur eine Regressionsfunktion aufbauen, die im Intervall der Trainingsdaten liegt" scheint sich also um das verwirrende Wort "Regression" zu handeln.)
quelle
Aus einer Einführung in das statistische Lernen , Abschnitt 3.5:
Aber es gibt Einschränkungen (nicht aus dem Lehrbuch, wie ich festgestellt habe):
quelle