Data Science

27
RNNs mit mehreren Funktionen

Ich verfüge über ein wenig Autodidakt-Wissen in der Arbeit mit Algorithmen des maschinellen Lernens (das grundlegende Material vom Typ Random Forest und Linear Regression). Ich beschloss, mich zu verzweigen und mit Keras RNNs zu lernen. Wenn ich mir die meisten Beispiele ansehe, bei denen es sich...

27
Hypertuning von XGBoost-Parametern

XGBoost hat hervorragende Arbeit geleistet, wenn es um den Umgang mit kategorialen und kontinuierlichen abhängigen Variablen geht. Aber wie wähle ich die optimierten Parameter für ein XGBoost-Problem aus? So habe ich die Parameter für ein aktuelles Kaggle-Problem angewendet: param <- list(...

26
PyTorch vs. Tensorflow Fold

Sowohl PyTorch als auch Tensorflow Fold sind Deep-Learning-Frameworks für Situationen, in denen die Eingabedaten eine ungleichmäßige Länge oder Dimension aufweisen ( dh Situationen, in denen dynamische Diagramme nützlich oder erforderlich sind). Ich würde gerne wissen, wie sie im Sinne von...

26
Wie berechnet Keras die Genauigkeit?

Wie berechnet Keras die Genauigkeit aus den klassenweisen Wahrscheinlichkeiten? Nehmen wir zum Beispiel an, wir haben 100 Proben im Test-Set, die zu einer von zwei Klassen gehören können. Wir haben auch eine Liste der klassenweisen Wahrscheinlichkeiten. Welchen Schwellenwert verwendet Keras, um...

25
LightGBM vs XGBoost

Ich versuche zu verstehen, was besser ist (genauer, insbesondere bei Klassifizierungsproblemen) Ich habe nach Artikeln gesucht, die LightGBM und XGBoost vergleichen, aber nur zwei gefunden: https://medium.com/implodinggradients/benchmarking-lightgbm-how-fast-is-lightgbm-vs-xgboost-15d224568031 - es...

25
Gini-Koeffizient gegen Gini-Verunreinigung - Entscheidungsbäume

Das Problem bezieht sich auf die Erstellung von Entscheidungsbäumen. Laut Wikipedia sollte ' Gini-Koeffizient ' nicht mit ' Gini-Verunreinigung ' verwechselt werden . Beide Kennzahlen können jedoch beim Erstellen eines Entscheidungsbaums verwendet werden. Diese können unsere Auswahl bei der...