Es war üblich, dass Benutzer verschiedener Communities lustige Dinge über ihre Felder zitierten. Es kann Spaß machen, Ihre lustigen Dinge über maschinelles Lernen, Deep Learning, Data Science und die Dinge, mit denen Sie jeden Tag konfrontiert sind, zu teilen!
35
Antworten:
F: Wie viele Spezialisten für maschinelles Lernen benötigen Sie, um eine Glühbirne auszutauschen?
A: Nur eine, aber sie benötigen eine Million Glühbirnen, um richtig zu trainieren.
F: Wie viele Spezialisten für maschinelles Lernen benötigen Sie, um eine Leuchtstofflampe auszutauschen?
A: Das war nicht in den Trainingsdaten!
quelle
Neuronales Netzwerk sind keine Blackboxen. Sie sind ein großer Haufen linearer Algebra:
Bild von xkcd
quelle
Wenn Sie Daten lange genug quälen, erfahren Sie, was Sie hören möchten.
Statistiken zeigen, dass Statistiken nicht vertrauenswürdig sind.
quelle
Ich finde das lustig, weil es wahr ist.
Quelle
Süß lustig ...
Dieser verrückt mich immer ohne Grund ...
quelle
Frequentisten gegen Bayesianer
Abschrift:
Titeltext:
quelle
Für den Fall, dass Sie nicht mehr weiterkommen möchten Für den Fall, dass Sie nicht mehr weiterkommen möchten Für den Fall, dass Sie nicht mehr weiterkommen möchten Um die Umstellung zu erleichtern, müssen Sie Für den Fall, dass Sie nicht mehr weiterkommen möchten Um die Umstellung zu erleichtern, müssen Sie Um die Umstellung zu erleichtern, müssen Sie
quelle
Frage: Was ist der Unterschied zwischen maschinellem Lernen und KI?
Antworten:
Wenn es in Python geschrieben ist, dann ist es wahrscheinlich maschinelles Lernen.
Wenn es in PowerPoint geschrieben ist, dann ist es wahrscheinlich AI.
quelle
Unsicher, ob sie sich qualifizieren, aber es gibt einige interessante Fakten aus verschiedenen Quellen:
Beginnend von Yann LeCun :
Geoff Hinton muss keine versteckten Einheiten herstellen. Sie verstecken sich von selbst, wenn er sich nähert.
Geoff Hinton ist nicht anderer Meinung als Sie, er weicht kontrastierend ab
(von Vincent Vanhoucke)
Shakespeare und Bayes sitzen in einem Boot und angeln. Bayes versucht herauszufinden, welches Netz er werfen soll, wenn Shakespeare sagt: "loopy or not loopy? Das ist die Frage."
Deep Belief Nets glauben tatsächlich tief an Geoff Hinton.
Geoff Hinton entdeckte, wie das Gehirn wirklich funktioniert. Einmal im Jahr in
den letzten 25 Jahren.
Bayesianer sind die einzigen Menschen, die sich nach der Integration ausgegrenzt fühlen können
Und jetzt die Legende:
Eine von Reddit :
YOLO: Du lernst nur einmal
PS: Ian Goodfellow und Jürgen Schmidhuber verfassen gemeinsam ein Paper (das auf der NIPS 2019 vorgestellt wird) über Inverse GANs (Weitere Witze zum Thema hier )
quelle
Ein Algorithmus für maschinelles Lernen betritt eine Leiste.
Der Barkeeper fragt: "Was haben Sie?"
Der Algorithmus sagt: "Was haben alle anderen?"
quelle
Lass mich dich umarmen, saures Unglück, denn weise Männer sagen, es ist der klügste Weg.
Yann Le Trump! 😂😂😂
quelle
A: Was ist maschinelles Lernen, Sir? B: Es ist kein maschinelles Lernen! Es brennt maschinell, Mann.
von Davide Mazzini
quelle
"Vorhersagen sind schwierig - vor allem in Bezug auf die Zukunft."
(Yogi Berra oder Neils Bohr, je nachdem, ob Sie Physik oder Baseball bevorzugen)
quelle
Im Jahr 2006 war es ein häufiger Witz, dass Sie eine Auszeichnung für das Schreiben einer Arbeit erhalten, deren Titel entweder "Karl Marx" oder "Neural Network" enthält und die am NIPS akzeptiert wird. Nun, das ist der Standard für letztere geworden ...: D
quelle