Ich weiß, dass k-means unbeaufsichtigt ist und für Clustering usw. verwendet wird und dass k-NN überwacht wird. Aber ich wollte konkrete Unterschiede zwischen den beiden
k-Nearest-Neighbor-Klassifizierer Diese Klassifizierer sind speicherbasiert und erfordern kein Modell, um angepasst zu werden. Wenn ein Abfragepunkt x0 gegeben ist, finden wir die k Trainingspunkte x (r), r = 1, ..., k, die in der Entfernung von x0 am nächsten liegen, und klassifizieren dann unter Verwendung der Mehrheitsabstimmung unter den k Nachbarn.
Ich weiß, dass k-means unbeaufsichtigt ist und für Clustering usw. verwendet wird und dass k-NN überwacht wird. Aber ich wollte konkrete Unterschiede zwischen den beiden
Ich möchte die Handlung erzeugen, die im Buch ElemStatLearn "Die Elemente des statistischen Lernens: Data Mining, Inferenz und Vorhersage. Zweite Ausgabe" von Trevor Hastie & Robert Tibshirani & Jerome Friedman beschrieben ist. Die Handlung ist: Ich frage mich, wie ich dieses genaue...
Ich bin gerade auf diese Arbeit gestoßen , in der beschrieben wird, wie die Wiederholbarkeit (auch bekannt als Zuverlässigkeit, auch bekannt als Intraclass-Korrelation) einer Messung über Mixed-Effects-Modellierung berechnet wird. Der R-Code wäre: #fit the model fit =
Nach meinem Verständnis können wir nur eine Regressionsfunktion aufbauen, die innerhalb des Intervalls der Trainingsdaten liegt. Zum Beispiel (nur eines der Panels ist erforderlich): Wie würde ich mit einem KNN-Regressor die Zukunft vorhersagen? Auch hier scheint es sich nur um eine Funktion zu...
Ich bin ein bisschen neu in Datamining / Maschinelles Lernen / etc. und haben über ein paar Möglichkeiten gelesen, mehrere Modelle und Läufe desselben Modells zu kombinieren, um Vorhersagen zu verbessern. Mein Eindruck beim Lesen einiger Artikel (die oft interessant und großartig in Bezug auf...
1999 stellten Beyer et al. gefragt, wann ist "Nächster Nachbar" sinnvoll? Gibt es seit 1999 bessere Möglichkeiten zur Analyse und Visualisierung der Auswirkung der Abstandsflachheit auf die NN-Suche? Bietet [ein gegebener] Datensatz aussagekräftige Antworten auf das 1-NN-Problem? Das...
Was ist die zeitliche Komplexität des k -NN-Algorithmus mit naivem Suchansatz (kein kd-Baum oder ähnliches)? Mich interessiert die zeitliche Komplexität auch unter Berücksichtigung des Hyperparameters k . Ich habe widersprüchliche Antworten gefunden: O (nd + kn), wobei n die Kardinalität des...
Es scheint, dass KNN ein diskriminierender Lernalgorithmus ist, aber ich kann keine Online-Quellen finden, die dies bestätigen. Ist KNN ein diskriminierender
Könnte mir bitte jemand erklären, warum Sie Daten normalisieren müssen, wenn Sie K nächste Nachbarn verwenden. Ich habe versucht, dies nachzuschlagen, aber ich kann es immer noch nicht verstehen. Ich habe folgenden Link gefunden:
Die Stellen, die ich über den Fluch der Dimensionalität gelesen habe, erklären ihn hauptsächlich in Verbindung mit kNN und linearen Modellen im Allgemeinen. Ich sehe regelmäßig Spitzenreiter in Kaggle, die Tausende von Funktionen in einem Datensatz verwenden, der kaum 100.000 Datenpunkte enthält....
Ich habe einen 5-fachen Lebenslauf durchgeführt, um das optimale K für KNN auszuwählen. Und es scheint, je größer K wird, desto kleiner wird der Fehler ... Es tut mir leid, dass ich keine Legende hatte, aber die verschiedenen Farben repräsentieren verschiedene Versuche. Insgesamt gibt es 5, und...
Ich suche ein KNN-Anrechnungspaket. Ich habe mir das Imputationspaket angesehen ( http://cran.r-project.org/web/packages/imputation/imputation.pdf) ) angesehen, aber aus irgendeinem Grund scheint die KNN-Impute-Funktion (auch wenn dem Beispiel aus der Beschreibung folge) nur zu funktionieren...
Ich programmiere einen kNN-Algorithmus und möchte Folgendes wissen: Unentschieden: Was passiert, wenn bei der Mehrheitsabstimmung kein eindeutiger Gewinner feststeht? ZB sind alle k nächsten Nachbarn aus verschiedenen Klassen, oder für k = 4 gibt es 2 Nachbarn aus Klasse A und 2 Nachbarn aus Klasse...
Ich verstehe die Gründe für die Spaltennormalisierung, da dadurch Merkmale gleich gewichtet werden, auch wenn sie nicht auf derselben Skala gemessen werden. In der Literatur zum nächsten Nachbarn werden jedoch häufig sowohl Spalten als auch Zeilen normalisiert. Was ist die Zeilennormalisierung für...
Ich bin neu in Kerneln und habe beim Versuch, kNN zu kerneln, einen Haken bekommen. Vorbereitungen Ich verwende einen Polynomkern: K(x,y)=(1+⟨x,y⟩)dK(x,y)=(1+⟨x,y⟩)dK(\mathbf{x},\mathbf{y}) = (1 + \langle \mathbf{x},\mathbf{y} \rangle)^d Ihr typischer euklidischer kNN verwendet die folgende...
Kann jemand über seine Erfahrungen mit einem adaptiven Kernel-Dichteschätzer berichten? (Es gibt viele Synonyme: adaptive | variable | variable-width, KDE | histogram | interpolator ...) Die variable Schätzung der Kerneldichte besagt, dass "wir die Breite des Kernels in verschiedenen Regionen...
Laut einem Artikel, den ich lese, wird häufig der Abstand zwischen Jeffries und Matusita verwendet. Aber ich konnte nicht viele Informationen darüber finden, außer der folgenden Formel JMD (x, y) =∑(xi−−√2−yi−−√2)2−−−−−−−−−−−−−√2∑(xi2−yi2)22\sqrt[2]{\sum(\sqrt[2]{x_i}-\sqrt[2]{y_i})^2} Es ähnelt...
In Elements of Statistical Learning wird ein Problem eingeführt, um Probleme mit k-nn in hochdimensionalen Räumen hervorzuheben. Es gibt NNN Datenpunkte, die gleichmäßig in einer ppp dimensionalen Einheitskugel verteilt sind. Der mittlere Abstand vom Ursprung zum nächsten Datenpunkt wird durch den...
Wie ich verstanden habe, ist k-NN ein fauler Lernalgorithmus und benötigt keine Trainingsphase. Warum müssen wir .fit()sklearn verwenden und was passiert, wenn wir es
Ich lese Kevin Murphys Buch: Maschinelles Lernen - Eine probabilistische Perspektive. Im ersten Kapitel erklärt der Autor den Fluch der Dimensionalität und es gibt einen Teil, den ich nicht verstehe. Als Beispiel gibt der Autor an: Beachten Sie, dass die Eingaben gleichmäßig entlang eines...