Woher kommt der Begriff „Modell lernen“?

10

Oft habe ich gehört, dass die Data Miner hier diesen Begriff verwenden. Als Statistiker, der an Klassifizierungsproblemen gearbeitet hat, kenne ich den Begriff "Klassifizierer trainieren" und gehe davon aus, dass "Modell lernen" dasselbe bedeutet. Ich habe nichts gegen den Begriff "einen Klassifikator trainieren". Dies scheint die Idee der Anpassung eines Modells darzustellen, da die Trainingsdaten verwendet werden, um gute oder "verbesserte" Schätzungen der Modellparameter zu erhalten. Aber das würde lernen, um Wissen zu erlangen. Im Klartext würde "ein Modell lernen" bedeuten, zu wissen, was es ist. Tatsächlich "kennen" wir das Modell jedoch nie. Modelle nähern sich der Realität an, aber kein Modell ist korrekt. Es ist wie Box sagte: "Kein Modell ist korrekt, aber einige sind nützlich."

Es würde mich interessieren, die Antwort der Data Miner zu hören. Wie ist der Begriff entstanden? Wenn du es benutzt, warum magst du es?

Michael R. Chernick
quelle
Der lustige Teil ist, dass "ein Modell lernen" höchstens "alle seine Parameter auswendig lernen" oder so bedeutet, daher ist es falsch, auch wenn Sie nicht darüber streiten, ob "Lernen" hier ein gutes Wort ist. In meiner Sprache (pl) lautet die offizielle Nomenklatur "Modell lehren", obwohl "maschinelles Lernen" eher "maschinelles Lernen" als "maschinelles Lehren" heißt.
Seitenleiste: Haben Sie eine Referenz für das Box-Angebot?
Entropie

Antworten:

8

Ich vermute, dass seine Ursprünge in der Forschungsgemeinschaft der künstlichen neuronalen Netze liegen, in der man sich vorstellen kann, dass das neuronale Netz ein Modell der Daten durch Modifikation der synaptischen Gewichte auf ähnliche Weise lernt, wie es im menschlichen Gehirn vorkommt, wie wir selbst lernen Erfahrung. Meine Forschungskarriere begann in künstlichen neuronalen Netzen, daher verwende ich manchmal den Ausdruck.

Vielleicht ist es sinnvoller, wenn Sie sich vorstellen, dass das Modell in den Parametern des Modells und nicht in der Gleichung codiert ist, genauso wie ein mentales Modell weniger eine identifizierbare physische Komponente des Gehirns als vielmehr eine Reihe von Parametern ist Einstellungen für einige unserer Neuronen.

Beachten Sie, dass es keine Implikation gibt, dass ein mentales Modell auch unbedingt korrekt ist!

Dikran Beuteltier
quelle
1
Mein Studienleiter und ich hatten diese Diskussion und ich habe eine Frage zu dieser Diskussion hier stats.stackexchange.com/questions/43559/… gepostet . Ich habe verstanden, dass Modellanpassung, Training, Schätzung und Lernen nur die Anwendung einer Optimierungsmethode bedeuten, um die besten Parameter zu finden, die ein Modell einer bestimmten Form definieren.
Entropie
6

Der Begriff ist in der künstlichen Intelligenz ziemlich alt. Turing widmete in seinem 1950 erschienenen Artikel über Computermaschinen und Intelligenz in Mind einen langen Abschnitt über " Lernmaschinen" und skizzierte qualitativ das überwachte Lernen. Rosenblatts Originalarbeit: Das Perzeptron: Ein probabilistisches Modell für die Speicherung und Organisation von Informationen im Gehirn aus dem Jahr 1958 befasst sich ausführlich mit einem "mathematischen Modell des Lernens". Hier war das Perzeptron ein "Modell des Lernens"; Modelle wurden nicht "gelernt".

Das Papier von Pitts und McCullough aus dem Jahr 1943 - das ursprüngliche Papier über "neuronale Netze" - befasste sich nicht wirklich mit dem Lernen, sondern vielmehr damit, wie man einen logischen Kalkül konstruieren kann (wie ein Hilbert- oder Gentzen-System, aber ich denke, sie beziehen sich auf Russell / Whitehead) könnte Inferenz durchführen. Ich denke, es war das "Perceptrons" -Papier, das eine numerische im Gegensatz zur symbolischen Vorstellung des Lernens in dieser Tradition einführte.

Kann eine Maschine anhand von Beispielen lernen, wie man Schach spielt? Ja. Hat es ein Modell zum Schachspielen? Ja. Ist es das optimale Modell (vorausgesetzt, es gibt eines)? Mit ziemlicher Sicherheit nicht. Im Klartext habe ich "Schach gelernt", wenn ich gut spielen kann - oder vielleicht ziemlich gut. Das bedeutet nicht, dass ich der optimale Schachspieler bin. In diesem Sinne beschrieb Turing "Lernen", als er in seiner Arbeit über das Lernen von Schach sprach.

Ich bin sehr inkonsistent mit dem Begriff, den ich verwende. Also würde ich (zum Beispiel) für das Lernen im Limit "identifizieren" sagen, für das SVM-Lernen würde ich "trainieren" sagen, aber für MCMC - "lernen" würde ich "optimieren" sagen. Und zB nenne ich Regression einfach "Regression".

Patrick Caldon
quelle
Bei meiner Frage ging es nicht darum, den Begriff Lernen in der Klassifizierung zu verwenden, sondern um den Ausdruck "Lernen eines Modells". Maschinelles Lernen ist sehr vertraut, aber "Lernen eines Modells" ist ein Satz, den ich hier auf dieser Site zum ersten Mal gehört habe.
Michael R. Chernick
Ich habe dort einen kleinen Klappentext hinzugefügt, aber Sie haben Recht, dies ist keine großartige Antwort. Ich habe mich darauf konzentriert, ohne viel über "Modell" zu lernen. Ich werde sehen, ob ich mich heute an etwas erinnern kann, aber ich könnte es heute Abend entfernen, wenn mir nichts einfällt.
Patrick Caldon
Ich wollte diese Antwort löschen, aber es gefällt eindeutig einigen Leuten! Ich denke, es ist eine vernünftige kleine Zusammenfassung dessen, woher der Begriff "Lernen" in diesem Zusammenhang kommt.
Patrick Caldon
+1 Ich gebe eine Gegenstimme, weil sie, obwohl etwas abseits der Frage, verwandt und interessant ist und 3 Gegenstimmen erhalten hat. Halten Sie es in.
Michael R. Chernick
2

Als Forscher im Bereich bioplausibles maschinelles Lernen stimme ich nachdrücklich zu, dass "kein Modell korrekt ist, aber einige nützlich", und tatsächlich haben Modelle und Formalismen das starke Versagen, wie es von Autoren verwendet wird, die über die Optimierung des Problems sprechen, wenn sie das tun, was sie tun optimiert ein Modell, dh erforscht seinen Parameterraum und findet ein lokales oder hoffentlich globales Optimum. Dies ist nicht im Allgemeinen ein Optimum für das reale Problem. Während der Urheber eines Modells normalerweise die richtige Terminologie verwendet und alle Annahmen offenlegt, beschönigen die meisten Benutzer die Annahmen, von denen am häufigsten bekannt ist, dass sie nicht zutreffen, und verwenden auch eine weniger genaue Sprache für "Lernen" und "Optimierung" und " Parametrierung ".

Ich denke, diese optimale Parametrisierung eines Modells ist das, was Menschen beim maschinellen Lernen bedeuten würden, insbesondere beim überwachten maschinellen Lernen, obwohl ich nicht sagen kann, dass ich viel "Modell lernen" gehört habe - aber es kommt vor, und zwar bei der Person trainiert das Modell, der Computer lernt die Parameter des Modells. Selbst beim unbeaufsichtigten Lernen ist das "Lernen" meistens einfach die Parametrisierung eines Modells, und hoffentlich ist das "Lernen eines Modells" somit eine optimale Parametrisierung eines Modells (obwohl oft unterschiedliche Arten der Suche im Parameterraum unterschiedliche Lösungen finden, obwohl sie bewiesen werden können das Gleiche optimieren). Ich würde in der Tat lieber "ein Modell trainieren" verwenden

Tatsächlich geht es bei den meisten meiner Forschungen darum, das Modell zu lernen, um ein besseres Modell oder ein rechnerisch und kognitiv / biologisch / ökologisch plausibles Modell zu finden.

David MW Powers
quelle