Angesichts des modernen Zustands der Technologien und Werkzeuge für maschinelles Lernen (z. B. TensorFlow, Theano usw.) scheint die Einstiegsschwelle in letzter Zeit gesunken zu sein, und es reicht aus, beispielsweise auf Python programmieren zu können, um interessante Dinge zu erstellen. Eine weitere Quelle, die diesen Punkt unterstützt, ist die Spezialisierung auf maschinelles Lernen in Coursera , in der in den häufig gestellten Fragen Folgendes angegeben ist:
Welches Hintergrundwissen ist notwendig?
Sie sollten Erfahrung mit Computerprogrammierung haben; Die meisten Aufgaben in dieser Spezialisierung verwenden die Programmiersprache Python. Diese Spezialisierung wurde speziell für Wissenschaftler und Softwareentwickler entwickelt, die ihre Fähigkeiten auf Datenwissenschaft und maschinelles Lernen ausweiten möchten. Sie eignet sich jedoch für alle, die über grundlegende Mathematik- und Programmierkenntnisse verfügen und Interesse daran haben, Informationen aus Daten abzuleiten.
Auf der anderen Seite gibt es viele andere Online-Kurse (z. B. Stanford Machine Learning auf Coursera oder Googles Deep Learning auf Udacity) sowie klassische Bücher wie S. Haykin, Neuronale Netze: Eine umfassende Grundlage voller Mathematik . Obwohl ich mehrere Jahre an der Universität Mathematik studiert habe, einschließlich Statistik, Matrizen, Integralrechnung usw., wurde es so lange nicht verwendet, dass ich verzweifelt bin, wenn ich nur diese Gleichungen betrachte. Selbst die Konkrete Mathematik von Knuth wird so langsam erkannt, dass es unmöglich erscheint, sie überhaupt zu beenden.
Somit stellen sich folgende Fragen:
- Ist es für jemanden mit geringen mathematischen Kenntnissen, aber Programmierkenntnissen sinnvoll, in Studien über neuronale Netze / maschinelles Lernen einzutauchen?
- Ist es möglich, interessante Projekte in diesem Bereich zu erstellen, beispielsweise solche , die Atari spielen , und zwar nur mit hochrangigen Tools?
Oder würde es so lange dauern, dass es besser ist, sich nicht zu wehren und etwas anderes zu tun?
Es hängt davon ab, ob. Ich gehe davon aus, dass Sie den Backpropagation-Algorithmus verstehen, wie er von den meisten NN-Architekturen und CNNs und RNNs verwendet wird, und all diese Dinge sind nicht so schwer, wenn Sie Backpropagation kennen.
Einerseits scheint Theano / Tensorflow kein gutes Beispiel zu sein, da es sich im Grunde genommen um DSLs zum Schreiben von Matrix- / Tensor-Berechnungen handelt und sie ziemlich mathematisch und niedrig sind (Sie schreiben die tatsächlichen mathematischen Operationen auf und nicht nur verwenden
fit
,transform
/predict
api).Auf der anderen Seite gibt es Keras und Scikit-Learn, die nur Apis auf hoher Ebene haben und nicht so viel Wasser benötigen.
Insbesondere können Sie in Keras einige Modelle verwenden, die vorab trainiert wurden oder über eine vordefinierte Architektur verfügen, von der bekannt ist, dass sie bei einigen Problemen funktioniert.
Wenn Sie keine guten mathematischen Kenntnisse haben, können Sie natürlich auf Probleme mit Black-Box-Modellen stoßen, aber wenn Sie nur Dinge anwenden möchten, die mit etwas anderem zu funktionieren scheinen, dann ist dies definitiv möglich, zum Beispiel beim Auschecken dieses einfache Projekt .
Das könnte Sie auch interessieren kreative Anwendungen von Deep Learning mit TensorFlow , wie es auf nicht - technische Menschen gerichtet zu sein scheint (ich weiß nicht , ob es machbar ist, ohne zu lernen , jeden technischen Hintergrund, aber zumindest ist es enthält viele coole Beispiele).
quelle
Die Essenz eines neuronalen Netzwerks ist der Graph. Während Diagramme Teil der Mathematik sein können, sind ihre Konzepte so alt wie die Beziehung selbst und datieren sie vor.
Wenn es notwendig wäre, dass das Lernen komplex ist, hätte sich das Gehirn wahrscheinlich überhaupt nicht entwickelt, da die Wahrscheinlichkeit einer geordneten Komplexität zu unwahrscheinlich ist.
Man muss sich also fragen: Was ist die einfachste Maschine, die lernen kann? Aber das wirft natürlich die erkenntnistheoretische Frage auf: Was ist Lernen?
Lernen ist das Nebeneinander zweier neuartiger Zustände, die eine Erinnerung bilden. Und da haben Sie die Basis der KI: Erinnerung.
quelle