Nachdem ich ungefähr ein halbes Jahr lang mit neuronalen Netzen gearbeitet habe, habe ich aus erster Hand erfahren, was oft als ihre Hauptnachteile bezeichnet wird, dh Überanpassung und Festhalten an lokalen Minima. Durch Hyperparameteroptimierung und einige neu erfundene Ansätze wurden diese jedoch für meine Szenarien überwunden. Aus meinen eigenen Experimenten:
- Dropout scheint eine sehr gute Regularisierungsmethode zu sein (auch ein Pseudo-Ensembler?),
- Die Chargennormalisierung erleichtert das Training und hält die Signalstärke über viele Ebenen hinweg konstant.
- Adadelta erreicht durchweg sehr gute Optima
Ich habe neben meinen Experimenten mit neuronalen Netzen mit der Implementierung von SVM durch SciKit-Learns experimentiert, finde aber die Leistung im Vergleich sehr schlecht, selbst nachdem ich nach Hyperparametern gesucht habe. Mir ist klar, dass es unzählige andere Methoden gibt und dass SVMs als Unterklasse von NNs betrachtet werden können, aber immer noch.
Also zu meiner Frage:
Haben sich all die neueren Methoden, die für neuronale Netze erforscht wurden, langsam - oder werden sie - anderen Methoden "überlegen" gemacht? Neuronale Netze haben ihre Nachteile, wie auch andere, aber wurden diese Nachteile mit all den neuen Methoden zu einem Zustand der Bedeutungslosigkeit gemildert?
Mir ist klar, dass in Bezug auf die Modellkomplexität oft "weniger mehr ist", aber auch das kann für neuronale Netze entworfen werden. Die Idee "kein kostenloses Mittagessen" verbietet uns anzunehmen, dass ein Ansatz immer überlegen sein wird. Es ist nur so, dass meine eigenen Experimente - zusammen mit unzähligen Artikeln über großartige Leistungen verschiedener NNs - darauf hindeuten, dass es zumindest ein sehr billiges Mittagessen geben könnte.
quelle
Antworten:
Neuronale Netze haben auch andere Mängel.
Ich freue mich darauf, was andere Leute hier zu sagen haben.
quelle
Nur um das zu ergänzen, was in der brillanten Antwort von @ MikeWise gesagt wurde:
Wenn alle Dinge gleich sind, haben Deep-Learning-Modelle im Vergleich zu anderen Algorithmen mit zunehmender Größe des Datensatzes im Allgemeinen den höchsten Rang:
Wie alles läuft alles auf den vorliegenden Datensatz hinaus. Neuronale Netze sind in anderen Datensätzen gut, aber gleichzeitig sind sie in anderen Datensätzen schlecht. Wenn es um unstrukturierte Probleme geht (z. B. Bild, Text, Ton ), scheinen derzeit neuronale Netze der beste Algorithmus zu sein. Wenn es jedoch um strukturierte Daten geht, zeigt ein schneller Scan der Art von Algorithmus, mit dem Online-Wettbewerbe im Bereich Data Science gewonnen werden , dass die sogenannten Algorithmen für maschinelles Lernen wie XGboost an oberster Stelle stehen.
Bei anderen Modellen spielt das Feature-Engineering eine große Rolle für die Effizienz des Algorithmus. Feature Engineering ist im Allgemeinen eine schwierige Sache, um es richtig zu machen. Deep-Learning-Algorithmen erfordern im Vergleich zu anderen Algorithmen nicht so viel Feature-Engineering (wenn überhaupt), sondern lernen Features selbst .
Wenn die Google-Leute sagen, dass sie kein tiefes Lernen gesehen haben, wer soll dann die Möglichkeit ausschließen, dass ein sogenannter Algorithmus für maschinelles Lernen herauskommt und die Welt im Sturm erobert?
Hier ist eine Umfrage darüber, was Datenwissenschaftler gesagt haben, als sie gefragt wurden: Ob Deep Learning dem Hype in der realen Anwendung entspricht? .
Selbst einige der beliebten Deep-Learning-Anwendungen wie Googles AlphaGo sind nicht zu 100% Deep-Learning , sondern zum Teil Deep-Learning, zum Teil gutes altes "maschinelles Lernen". Mein 2 Cent ist, vielleicht sollten wir andere Algorithmen für maschinelles Lernen noch nicht ausschließen.
quelle