Kann jemand die Hauptunterschiede zwischen bedingten Inferenzbäumen ( ctree
aus dem party
Paket in R) im Vergleich zu den traditionelleren Entscheidungsbaumalgorithmen (wie rpart
in R) erklären ?
- Was unterscheidet CI-Bäume?
- Stärken und Schwächen?
Update: Ich habe mir das Papier von Horthorn et al. Angesehen, auf das Chi in den Kommentaren Bezug nimmt. Ich konnte es nicht vollständig verfolgen - kann jemand erklären, wie Variablen mit Permutationen ausgewählt werden (z. B. was ist eine Einflussfunktion)?
Vielen Dank!
r
machine-learning
cart
B_Miner
quelle
quelle
Antworten:
Für was es wert ist:
beide
rpart
undctree
rekursiv univariate Aufteilungen der abhängigen Variablen basierend auf Werten auf einer Menge von Kovariaten durchführen.rpart
und verwandte Algorithmen verwenden gewöhnlich Informationsmaße (wie den Gini-Koeffizienten ) zum Auswählen der aktuellen Kovariate.ctree
Laut den Autoren (siehe Kommentare von chl ) wird die folgende Abweichung bei der Variablenauswahlrpart
(und verwandten Methoden ) vermieden : Sie neigen dazu, Variablen mit vielen möglichen Teilungen oder vielen fehlenden Werten auszuwählen.ctree
Verwendet im Gegensatz zu den anderen ein Signifikanztestverfahren, um Variablen auszuwählen, anstatt die Variable auszuwählen, die ein Informationsmaß maximiert (z. B. Gini-Koeffizient).Der Signifikanztest oder besser: Die bei jedem Start des Algorithmus berechneten multiplen Signifikanztests (Kovariate auswählen - Split auswählen - Rekursion) sind Permutationstests , dh die "Verteilung der Teststatistik unter der Nullhypothese wird durch Berechnung erhalten alle möglichen Werte der Teststatistik unter Umordnung der Etiketten auf die beobachteten Datenpunkte. " (aus dem Wikipedia-Artikel).
Nun zur Teststatistik: Sie wird aus Transformationen (einschließlich Identität, dh keiner Transformation) der abhängigen Variablen und der Kovariaten berechnet. Sie können für beide Variablen eine beliebige Anzahl von Transformationen auswählen. Für die DV (Dependent Variable) wird die Transformation die Einflussfunktion genannt, nach der Sie gefragt haben.
Beispiele (aus dem Papier entnommen ):
kleines Beispiel für einen Permutationstest in
R
:Angenommen, Sie haben eine Reihe von Kovariaten, nicht nur eine wie oben. Berechnen Sie dann die p- Werte für jede der Kovariaten wie im obigen Schema und wählen Sie den mit dem kleinsten p- Wert aus. Sie möchten p- Werte anstelle der Korrelationen direkt berechnen , da Sie Kovariaten unterschiedlicher Art (z. B. numerisch und kategorisch) haben können.
Nachdem Sie eine Kovariate ausgewählt haben, untersuchen Sie nun alle möglichen Teilungen (oder häufig eine irgendwie eingeschränkte Anzahl aller möglichen Teilungen, z. B. indem Sie vor der Teilung eine minimale Anzahl von DV-Elementen benötigen) erneut und bewerten Sie einen permutationsbasierten Test.
ctree
Transformations
Imparty
Lieferumfang sind eine Reihe möglicher Transformationen für DV und Kovariaten enthalten (siehe Hilfe im Paket).Der Hauptunterschied scheint im Allgemeinen darin zu liegen, dass
ctree
ein kovariates Auswahlschema verwendet wird, das auf statistischer Theorie basiert (dh Auswahl durch permutationsbasierte Signifikanztests) und dadurch eine mögliche Verzerrung vermeidetrpart
, da sie ansonsten ähnlich erscheinen. Beispielsweise können bedingte Inferenzbäume als Basislerner für zufällige Wälder verwendet werden.Das ist ungefähr so weit ich kommen kann. Für weitere Informationen müssen Sie unbedingt die Zeitungen lesen. Beachten Sie, dass ich Ihnen dringend empfehle, wirklich zu wissen, was Sie tun, wenn Sie statistische Analysen durchführen möchten.
quelle