Als «k-nearest-neighbour» getaggte Fragen

10
Der No-Free-Lunch-Satz und die K-NN-Konsistenz

Beim rechnerischen Lernen besagt das NFL-Theorem, dass es keinen universellen Lernenden gibt. Für jeden Lernalgorithmus gibt es eine Verteilung, die bewirkt, dass der Lernende mit hoher Wahrscheinlichkeit eine Hypotese mit einem großen Fehler ausgibt (obwohl es eine Hypotese mit geringem Fehler...

10
Warum ist KNN nicht „modellbasiert“?

ESL Kapitel 2.4 scheint die lineare Regression als "modellbasiert" zu klassifizieren, da sie annimmt , während für k-nächste Nachbarn keine ähnliche Näherung angegeben wird. Aber machen nicht beide Methoden Annahmen über f ( x ) ?f( x ) ≤ x ≤ βf(x)≈x⋅βf(x) \approx x\cdot\betaf( x )f(x)f(x) Später...

9
KNN: 1 nächster Nachbar

Meine Frage bezieht sich auf den 1-nächsten Nachbarn-Klassifikator und auf eine Aussage, die in dem ausgezeichneten Buch Die Elemente des statistischen Lernens von Hastie, Tibshirani und Friedman gemacht wurde. Die Aussage lautet (S. 465, Abschnitt 13.3): "Da nur der Trainingspunkt verwendet...

7
Wie kann ein Algorithmus zur Vorhersage von Zeitreihen am besten bewertet werden?

Was ist die beste Vorgehensweise zum Trainieren und Bewerten eines Vorhersagealgorithmus für eine Zeitreihe? Zum Lernen von Algorithmen, die im Batch-Modus trainiert werden, kann ein naiver Programmierer den Rohdatensatz [(sample, expected prediction),...]direkt an die train()Methode des...