Ich lese Chris Bishops Lehrbuch zur Mustererkennung und zum maschinellen Lernen . Ich bin mehrmals auf den Begriff probabilistische Folgerung gestoßen. Ich habe ein paar Fragen.
Ist probabilistische Inferenz nur in einem grafischen Modellierungskontext anwendbar?
Was ist der Unterschied zwischen traditioneller statistischer Inferenz (p-Werte, Konfidenzintervalle, Bayes-Faktoren usw.) und probabilistischer Inferenz?
Ist dies ein Begriff, der spezifisch für die CS-Community ist, oder wird er auch in der Statistik-Community häufig verwendet?
machine-learning
probability
inference
graphical-model
discretetimeisnice
quelle
quelle
Antworten:
Die probabilistische Inferenz verwendet probabilistische Modelle , dh Modelle, die die statistischen Probleme in Bezug auf Wahrscheinlichkeitstheorie und Wahrscheinlichkeitsverteilungen beschreiben. Während die Statistik die Wahrscheinlichkeitstheorie ziemlich häufig verwendet, kann man nicht sagen, dass diese beiden Disziplinen dasselbe sind (siehe Diskussion in diesem Thread ). Beachten Sie, dass viele statistische und maschinelle Lernmethoden die Wahrscheinlichkeitstheorie nicht explizit verwenden, um die Probleme zu definieren, z. B. viele Clustering-Algorithmen oder Klassifizierungsmethoden, die durch Minimieren einer Verlustfunktion usw. funktionieren. Die Unterscheidung ist jedoch nicht so einfach. Nehmen Sie als Beispiel die ungefähre Bayes'sche Berechnung - Theoretisch basiert es auf der Bayes'schen (probabilistischen!) Inferenz, behandelt jedoch Fälle, in denen wir keine Wahrscheinlichkeitsfunktion haben, und verwendet stattdessen ein Abstandsmaß.
quelle
Ich werde Ihre Fragen aus meiner Erfahrung mit dem Erlernen probabilistischer grafischer Modelle (PGM) an der Universität und der Art und Weise beantworten, wie mein PGM-Lehrer probabilistische Inferenz definiert hat . Da ich weiß, dass das Material dieser Klasse auf [1] basiert, kann man in diesem Buch vermutlich genauere Antworten finden.
Antwort auf 2: Probabilistische Inferenz ist eine Art statistische Inferenz. Aus [2] und [3] macht die statistische Inferenz statistische Aussagen über eine Population, die Punktschätzung , Intervallschätzung , Zurückweisung von Hypothesen , Clustering und Klassifizierung umfasst . "Probabilistische Inferenz" wurde eingeführt und im PGM-Kontext grob als jede Marginalisierungsaufgabe einer Wahrscheinlichkeitsfunktion definiert, unabhängig davon, ob es sich um eine Grenzwahrscheinlichkeitsberechnung handelt oder um das Finden des wahrscheinlichsten Ergebnisses (z. B. Klassifizierung). Es geht daher in die Definition der statistischen Inferenz ein, indem es einen Satz über die zugrunde liegende Wahrscheinlichkeitsverteilung der Bevölkerung macht.
Um einige Marginalisierungsaufgaben im Kontext von PGM mathematisch zu veranschaulichen, seiX={X1,…,Xn} eine Menge von Zufallsvariablen sein. Für ein bestimmtes Bayes'sches Netzwerk(G,Pθ) oder markovian Netzwerk (H,Pθ) mit Pθ Dann werden die folgenden Routinen als probabilistische Schlussfolgerungen betrachtet :
Berechnung einer marginalen oder bedingten Wahrscheinlichkeit: FürE,X⊂X wollen wir antworten:
Pθ(X=x∣E=e)= ?.
Wahrscheinlichste Erkenntnis: FürE,X⊂X wollen wir antworten:
argminxPθ(X=x∣E=e)= ?.
Antwort auf 1 und 3: Es war das erste Mal, dass ich diese Terminologie sah. Der Begriff ist sinnvoll, da Sie auf Fragen schließen, die in direktem Zusammenhang mit Wahrscheinlichkeiten stehen. Ich kann nicht antworten, ob es ausschließlich im CS- oder im PGM-Kontext verwendet wird.
[1] Koller, Daphne und Nir Friedman. 2009. Probabilistische grafische Modelle: Prinzipien und Techniken. MIT Press.
[2] https://en.wikipedia.org/wiki/Statistical_inference
[3] https://encyclopediaofmath.org/wiki/Statistical_inference
quelle