Als «k-nearest-neighbour» getaggte Fragen

k-Nearest-Neighbor-Klassifizierer Diese Klassifizierer sind speicherbasiert und erfordern kein Modell, um angepasst zu werden. Wenn ein Abfragepunkt x0 gegeben ist, finden wir die k Trainingspunkte x (r), r = 1, ..., k, die in der Entfernung von x0 am nächsten liegen, und klassifizieren dann unter Verwendung der Mehrheitsabstimmung unter den k Nachbarn.

28
Berechnung der Wiederholbarkeit von Effekten aus einem früheren Modell

Ich bin gerade auf diese Arbeit gestoßen , in der beschrieben wird, wie die Wiederholbarkeit (auch bekannt als Zuverlässigkeit, auch bekannt als Intraclass-Korrelation) einer Messung über Mixed-Effects-Modellierung berechnet wird. Der R-Code wäre: #fit the model fit =

20
Maschinelles Lernen kombinieren

Ich bin ein bisschen neu in Datamining / Maschinelles Lernen / etc. und haben über ein paar Möglichkeiten gelesen, mehrere Modelle und Läufe desselben Modells zu kombinieren, um Vorhersagen zu verbessern. Mein Eindruck beim Lesen einiger Artikel (die oft interessant und großartig in Bezug auf...

17
k-NN Rechenkomplexität

Was ist die zeitliche Komplexität des k -NN-Algorithmus mit naivem Suchansatz (kein kd-Baum oder ähnliches)? Mich interessiert die zeitliche Komplexität auch unter Berücksichtigung des Hyperparameters k . Ich habe widersprüchliche Antworten gefunden: O (nd + kn), wobei n die Kardinalität des...

15
Warum müssen Sie Daten in KNN skalieren?

Könnte mir bitte jemand erklären, warum Sie Daten normalisieren müssen, wenn Sie K nächste Nachbarn verwenden. Ich habe versucht, dies nachzuschlagen, aber ich kann es immer noch nicht verstehen. Ich habe folgenden Link gefunden:

15
Auswahl des optimalen K für KNN

Ich habe einen 5-fachen Lebenslauf durchgeführt, um das optimale K für KNN auszuwählen. Und es scheint, je größer K wird, desto kleiner wird der Fehler ... Es tut mir leid, dass ich keine Legende hatte, aber die verschiedenen Farben repräsentieren verschiedene Versuche. Insgesamt gibt es 5, und...

14
KNN Imputation R-Pakete

Ich suche ein KNN-Anrechnungspaket. Ich habe mir das Imputationspaket angesehen ( http://cran.r-project.org/web/packages/imputation/imputation.pdf) ) angesehen, aber aus irgendeinem Grund scheint die KNN-Impute-Funktion (auch wenn dem Beispiel aus der Beschreibung folge) nur zu funktionieren...

12
Kernelised k Nächster Nachbar

Ich bin neu in Kerneln und habe beim Versuch, kNN zu kerneln, einen Haken bekommen. Vorbereitungen Ich verwende einen Polynomkern: K(x,y)=(1+⟨x,y⟩)dK(x,y)=(1+⟨x,y⟩)dK(\mathbf{x},\mathbf{y}) = (1 + \langle \mathbf{x},\mathbf{y} \rangle)^d Ihr typischer euklidischer kNN verwendet die folgende...

12
Adaptive Kernel-Dichteschätzer?

Kann jemand über seine Erfahrungen mit einem adaptiven Kernel-Dichteschätzer berichten? (Es gibt viele Synonyme: adaptive | variable | variable-width, KDE | histogram | interpolator ...) Die variable Schätzung der Kerneldichte besagt, dass "wir die Breite des Kernels in verschiedenen Regionen...

11
Vorteile von Jeffries Matusita Entfernung

Laut einem Artikel, den ich lese, wird häufig der Abstand zwischen Jeffries und Matusita verwendet. Aber ich konnte nicht viele Informationen darüber finden, außer der folgenden Formel JMD (x, y) =∑(xi−−√2−yi−−√2)2−−−−−−−−−−−−−√2∑(xi2−yi2)22\sqrt[2]{\sum(\sqrt[2]{x_i}-\sqrt[2]{y_i})^2} Es ähnelt...