Ich suche nach Artikeln oder Texten, die vergleichen und diskutieren (entweder empirisch oder theoretisch):
- Boosting- und Entscheidungsbaum- Algorithmen wie Random Forests oder AdaBoost und GentleBoost werden auf Entscheidungsbäume angewendet.
mit
- Deep Learning Methoden wie Restricted Boltzmann Machines , Hierarchical Temporal Memory , Convolutional Neural Networks , etc.
Kennt jemand einen Text, der diese beiden Blöcke von ML-Methoden in Bezug auf Geschwindigkeit, Genauigkeit oder Konvergenz beschreibt oder vergleicht? Ich suche auch nach Texten, die die Unterschiede (zB Vor- und Nachteile) zwischen den Modellen oder Methoden im zweiten Block erklären oder zusammenfassen.
Alle Hinweise oder Antworten, die sich direkt auf solche Vergleiche beziehen, wären sehr dankbar.
quelle
Tolle Frage! Sowohl adaptives Boosten als auch Deep Learning können als probabilistische Lernnetzwerke klassifiziert werden. Der Unterschied besteht darin, dass "Deep Learning" speziell ein oder mehrere "neuronale Netze" umfasst, wohingegen "Boosten" ein "Meta-Lernalgorithmus" ist, der ein oder mehrere Lernnetzwerke erfordert, die als schwache Lernende bezeichnet werden und "alles" sein können (d. H neuronales Netz, Entscheidungsbaum usw.). Der Boosting-Algorithmus verwendet eines oder mehrere seiner schwachen Lernernetzwerke, um einen so genannten "starken Lernenden" zu bilden, der die Gesamtergebnisse der Lernnetzwerke erheblich "steigern" kann (z. B. Microsofts Viola and Jones Face Detector, OpenCV).
quelle