Ich lese hier den Wikipedia-Artikel über statistische Modelle und bin etwas ratlos über die Bedeutung von "nichtparametrischen statistischen Modellen", insbesondere:
Ein statistisches Modell ist nichtparametrisch, wenn der Parametersatz unendlich dimensional ist. Ein statistisches Modell ist semiparametrisch, wenn es sowohl endlichdimensionale als auch unendlichdimensionale Parameter aufweist. Wenn d die Dimension von Θ und n die Anzahl der Stichproben ist, haben sowohl semiparametrische als auch nichtparametrische Modelle formal d → ∞ als n → ∞ . Wenn d / n → 0 als n → ∞ ist , ist das Modell semiparametrisch; Andernfalls ist das Modell nichtparametrisch.
Ich verstehe, dass, wenn die Dimension (ich verstehe das wörtlich, die Anzahl der Parameter) eines Modells endlich ist, dies ein parametrisches Modell ist.
Was für mich keinen Sinn macht, ist, wie wir ein statistisches Modell haben können, das eine unendliche Anzahl von Parametern hat, so dass wir es "nicht parametrisch" nennen können. Auch wenn dies der Fall war, warum das "Nicht-", wenn es tatsächlich eine unendliche Anzahl von Dimensionen gibt? Gibt es einen Unterschied zwischen diesem "nicht parametrischen statistischen Modell" und "nicht parametrischen maschinellen Lernmodellen", da ich aus einem maschinellen Lernhintergrund komme? Was könnten schließlich einige konkrete Beispiele für solche "nichtparametrischen unendlich dimensionalen Modelle" sein?
quelle
Antworten:
Wie Johnnyboycurtis geantwortet hat, sind nichtparametrische Methoden solche, bei denen keine Annahme über die Bevölkerungsverteilung oder die Stichprobengröße getroffen wird, um ein Modell zu erstellen.
Ein k-NN-Modell ist ein Beispiel für ein nicht parametrisches Modell, da es keine Annahmen zur Entwicklung eines Modells berücksichtigt. Ein Naive Bayes oder K-Mittel ist ein Beispiel für parametrisch, da es eine Verteilung zum Erstellen eines Modells voraussetzt.
Zum Beispiel nimmt K-means Folgendes an, um ein Modell zu entwickeln. Alle Cluster sind sphärisch (iid Gauß). Alle Achsen haben die gleiche Verteilung und damit Varianz. Alle Cluster sind gleichmäßig groß.
Für k-NN wird der gesamte Trainingssatz zur Vorhersage verwendet. Es berechnet die nächsten Nachbarn aus dem Testpunkt für die Vorhersage. Es wird keine Verteilung zum Erstellen eines Modells angenommen.
Für mehr Information:
quelle
Ich denke, Sie vermissen ein paar Punkte. Erstens und vor allem
Hier ist ein einfaches (angewandtes) Tutorial zu einigen nicht-parametrischen Modellen: http://www.r-tutor.com/elementary-statistics/non-parametric-methods
Ein Forscher kann sich dafür entscheiden, ein nichtparemtrisches Modell gegenüber einem parametrischen Modell zu verwenden, beispielsweise nichtparametrische Regression gegenüber linearer Regression, weil die Daten gegen die Annahmen des parametrischen Modells verstoßen. Da Sie einen ML-Hintergrund haben, gehe ich einfach davon aus, dass Sie die typischen Annahmen des linearen Regressionsmodells nie gelernt haben. Hier ist eine Referenz: https://statistics.laerd.com/spss-tutorials/linear-regression-using-spss-statistics.php
Verstöße gegen Annahmen können Ihre Parameterschätzungen verzerren und letztendlich das Risiko ungültiger Schlussfolgerungen erhöhen. Ein nichtparametrisches Modell ist robuster gegenüber Ausreißern und nichtlinearen Beziehungen und hängt nicht von vielen Annahmen zur Bevölkerungsverteilung ab. Daher kann es vertrauenswürdigere Ergebnisse liefern, wenn versucht wird, Schlussfolgerungen zu ziehen oder Vorhersagen zu treffen.
Für ein kurzes Tutorial zur nichtparametrischen Regression empfehle ich diese Folien: http://socserv.socsci.mcmaster.ca/jfox/Courses/Oxford-2005/slides-handout.pdf
quelle
Ich nehme derzeit an einem Kurs über maschinelles Lernen teil, in dem wir die folgende Definition von nichtparametrischen Modellen verwenden: "Nichtparametrische Modelle werden mit der Größe der Daten immer komplexer".
Parametrisches Modell
Um zu sehen, was es bedeutet, werfen wir einen Blick auf die lineare Regression, ein parametrisches Modell: Dort versuchen wir, eine in parametrisierte Funktion vorherzusagenw ∈ R.d ::
Nichtparametrische Modelle
Stattdessen versucht die Kernel-Regression, die folgende Funktion vorherzusagen:
Gleiches gilt für das kernelisierte Perzeptron:
Kommen wir zu Ihrer Definition zurück und sagen, d sei die Nummer vonαich . Wenn wir lassenn → ∞ dann d→ ∞ . Genau das verlangt die Wikipedia-Definition.
Ich habe die Kernel-Regressionsfunktion aus meinen Vorlesungsfolien und die kernelisierte Perzeptron-Funktion aus Wikipedia übernommen: https://en.wikipedia.org/wiki/Kernel_method
quelle