Wie unterscheiden sich PCA und klassisches MDS? Wie wäre es mit MDS im Vergleich zu nichtmetrischem MDS? Gibt es eine Zeit, in der Sie eine der anderen vorziehen würden? Wie unterscheiden sich die
Technik, die beobachtete oder berechnete (Dis-) Ähnlichkeiten zwischen Objekten in Entfernungen in einem niedrigdimensionalen Raum (normalerweise euklidisch) umwandelt. Es konstruiert somit Dimensionen für die Daten; Die Objekte können in diesen Dimensionen geplottet und konzeptualisiert werden
Wie unterscheiden sich PCA und klassisches MDS? Wie wäre es mit MDS im Vergleich zu nichtmetrischem MDS? Gibt es eine Zeit, in der Sie eine der anderen vorziehen würden? Wie unterscheiden sich die
Eine gängige Vorgehensweise beim maschinellen Lernen ist die Merkmalsnormalisierung oder Datenstandardisierung der Prädiktorvariablen. Das ist es, die Daten zu zentrieren, wobei der Mittelwert abgezogen wird, und die Division durch die Varianz (oder auch die Standardabweichung) zu normalisieren....
Ich versuche, das Ergebnis eines komplexen Systems mithilfe neuronaler Netze (ANNs) vorherzusagen. Die (abhängigen) Ergebniswerte liegen zwischen 0 und 10.000. Die verschiedenen Eingangsvariablen haben unterschiedliche Bereiche. Alle Variablen haben ungefähr normale Verteilungen. Ich betrachte...
Für das LASSO (und andere Modellauswahlverfahren) ist es entscheidend, die Prädiktoren neu zu skalieren. Die allgemeine Empfehlung, der ich folge, ist einfach, eine Normierung mit 0 Mittelwerten und 1 Standardabweichung für kontinuierliche Variablen zu verwenden. Aber was gibt es mit Dummies zu...
Ich habe kürzlich einige Fragen zu t-SNE ( t-Distributed Stochastic Neighbor Embedding ) gelesen und auch einige Fragen zu MDS ( Multidimensional Scaling ) besucht. Sie werden oft analog verwendet, daher schien es eine gute Idee zu sein, diese Frage zu stellen, da es hier viele Fragen zu beiden...
Mein Verständnis von t-SNE und der Barnes-Hut-Näherung ist, dass alle Datenpunkte erforderlich sind, damit alle Kraftwechselwirkungen gleichzeitig berechnet werden können und jeder Punkt in der 2d-Karte (oder der Karte mit der niedrigeren Dimension) angepasst werden kann. Gibt es Versionen von...
Ich bin kürzlich auf mehrdimensionale Skalierung gestoßen. Ich versuche, dieses Tool und seine Rolle in der modernen Statistik besser zu verstehen. Hier sind ein paar Leitfragen: Welche Fragen beantwortet es? Welche Forscher sind oft daran interessiert, es zu nutzen? Gibt es andere statistische...
Ich habe randomForest verwendet, um 6 Verhaltensweisen von Tieren (z. B. Stehen, Gehen, Schwimmen usw.) anhand von 8 Variablen (unterschiedliche Körperhaltungen und Bewegungen) zu klassifizieren. Der MDSplot im randomForest-Paket gibt diese Ausgabe aus und es treten Probleme bei der...
Ich möchte einen massiven Datensatz gruppieren, für den ich nur die paarweisen Abstände habe. Ich habe einen k-medoids-Algorithmus implementiert, dessen Ausführung jedoch zu lange dauert. Daher möchte ich zunächst die Dimension meines Problems durch Anwendung von PCA reduzieren. Die einzige...
Ich verwende die latente semantische Indizierung, um Ähnlichkeiten zwischen Dokumenten zu finden ( danke, JMS! ) Nach der Dimensionsreduzierung habe ich versucht, mit k-means Clustering die Dokumente in Cluster zu gruppieren, was sehr gut funktioniert. Ich möchte jedoch noch einen Schritt weiter...
Ich habe eine Reihe von Datenpunkten in einem N-dimensionalen Raum. Außerdem habe ich in diesem N-dimensionalen Raum einen Schwerpunkt. Gibt es Ansätze, mit denen ich diese Datenpunkte in einen zweidimensionalen Raum projizieren kann, während ihre relativen Entfernungsinformationen im...
Nach "Efficient Backprop" von LeCun et al. (1998) ist es empfehlenswert, alle Eingaben so zu normalisieren, dass sie um 0 zentriert sind und im Bereich der maximalen zweiten Ableitung liegen. So würden wir zum Beispiel [-0.5,0.5] für die "Tanh" -Funktion verwenden. Dies soll den Fortschritt der...
In Anbetracht der konstanten Anzahl von Merkmalen hat Barnes-Hut t-SNE eine Komplexität von , zufällige Projektionen und PCA eine Komplexität von was sie für sehr große Datenmengen "erschwinglich" macht.O ( n )O ( n logn )O(nlogn)O(n\log n)O ( n )O(n)O(n) Andererseits weisen Verfahren, die auf...