Oft habe ich gehört, dass die Data Miner hier diesen Begriff verwenden. Als Statistiker, der an Klassifizierungsproblemen gearbeitet hat, kenne ich den Begriff "Klassifizierer trainieren" und gehe davon aus, dass "Modell lernen" dasselbe bedeutet. Ich habe nichts gegen den Begriff "einen Klassifikator trainieren". Dies scheint die Idee der Anpassung eines Modells darzustellen, da die Trainingsdaten verwendet werden, um gute oder "verbesserte" Schätzungen der Modellparameter zu erhalten. Aber das würde lernen, um Wissen zu erlangen. Im Klartext würde "ein Modell lernen" bedeuten, zu wissen, was es ist. Tatsächlich "kennen" wir das Modell jedoch nie. Modelle nähern sich der Realität an, aber kein Modell ist korrekt. Es ist wie Box sagte: "Kein Modell ist korrekt, aber einige sind nützlich."
Es würde mich interessieren, die Antwort der Data Miner zu hören. Wie ist der Begriff entstanden? Wenn du es benutzt, warum magst du es?
quelle
Antworten:
Ich vermute, dass seine Ursprünge in der Forschungsgemeinschaft der künstlichen neuronalen Netze liegen, in der man sich vorstellen kann, dass das neuronale Netz ein Modell der Daten durch Modifikation der synaptischen Gewichte auf ähnliche Weise lernt, wie es im menschlichen Gehirn vorkommt, wie wir selbst lernen Erfahrung. Meine Forschungskarriere begann in künstlichen neuronalen Netzen, daher verwende ich manchmal den Ausdruck.
Vielleicht ist es sinnvoller, wenn Sie sich vorstellen, dass das Modell in den Parametern des Modells und nicht in der Gleichung codiert ist, genauso wie ein mentales Modell weniger eine identifizierbare physische Komponente des Gehirns als vielmehr eine Reihe von Parametern ist Einstellungen für einige unserer Neuronen.
Beachten Sie, dass es keine Implikation gibt, dass ein mentales Modell auch unbedingt korrekt ist!
quelle
Der Begriff ist in der künstlichen Intelligenz ziemlich alt. Turing widmete in seinem 1950 erschienenen Artikel über Computermaschinen und Intelligenz in Mind einen langen Abschnitt über " Lernmaschinen" und skizzierte qualitativ das überwachte Lernen. Rosenblatts Originalarbeit: Das Perzeptron: Ein probabilistisches Modell für die Speicherung und Organisation von Informationen im Gehirn aus dem Jahr 1958 befasst sich ausführlich mit einem "mathematischen Modell des Lernens". Hier war das Perzeptron ein "Modell des Lernens"; Modelle wurden nicht "gelernt".
Das Papier von Pitts und McCullough aus dem Jahr 1943 - das ursprüngliche Papier über "neuronale Netze" - befasste sich nicht wirklich mit dem Lernen, sondern vielmehr damit, wie man einen logischen Kalkül konstruieren kann (wie ein Hilbert- oder Gentzen-System, aber ich denke, sie beziehen sich auf Russell / Whitehead) könnte Inferenz durchführen. Ich denke, es war das "Perceptrons" -Papier, das eine numerische im Gegensatz zur symbolischen Vorstellung des Lernens in dieser Tradition einführte.
Kann eine Maschine anhand von Beispielen lernen, wie man Schach spielt? Ja. Hat es ein Modell zum Schachspielen? Ja. Ist es das optimale Modell (vorausgesetzt, es gibt eines)? Mit ziemlicher Sicherheit nicht. Im Klartext habe ich "Schach gelernt", wenn ich gut spielen kann - oder vielleicht ziemlich gut. Das bedeutet nicht, dass ich der optimale Schachspieler bin. In diesem Sinne beschrieb Turing "Lernen", als er in seiner Arbeit über das Lernen von Schach sprach.
Ich bin sehr inkonsistent mit dem Begriff, den ich verwende. Also würde ich (zum Beispiel) für das Lernen im Limit "identifizieren" sagen, für das SVM-Lernen würde ich "trainieren" sagen, aber für MCMC - "lernen" würde ich "optimieren" sagen. Und zB nenne ich Regression einfach "Regression".
quelle
Als Forscher im Bereich bioplausibles maschinelles Lernen stimme ich nachdrücklich zu, dass "kein Modell korrekt ist, aber einige nützlich", und tatsächlich haben Modelle und Formalismen das starke Versagen, wie es von Autoren verwendet wird, die über die Optimierung des Problems sprechen, wenn sie das tun, was sie tun optimiert ein Modell, dh erforscht seinen Parameterraum und findet ein lokales oder hoffentlich globales Optimum. Dies ist nicht im Allgemeinen ein Optimum für das reale Problem. Während der Urheber eines Modells normalerweise die richtige Terminologie verwendet und alle Annahmen offenlegt, beschönigen die meisten Benutzer die Annahmen, von denen am häufigsten bekannt ist, dass sie nicht zutreffen, und verwenden auch eine weniger genaue Sprache für "Lernen" und "Optimierung" und " Parametrierung ".
Ich denke, diese optimale Parametrisierung eines Modells ist das, was Menschen beim maschinellen Lernen bedeuten würden, insbesondere beim überwachten maschinellen Lernen, obwohl ich nicht sagen kann, dass ich viel "Modell lernen" gehört habe - aber es kommt vor, und zwar bei der Person trainiert das Modell, der Computer lernt die Parameter des Modells. Selbst beim unbeaufsichtigten Lernen ist das "Lernen" meistens einfach die Parametrisierung eines Modells, und hoffentlich ist das "Lernen eines Modells" somit eine optimale Parametrisierung eines Modells (obwohl oft unterschiedliche Arten der Suche im Parameterraum unterschiedliche Lösungen finden, obwohl sie bewiesen werden können das Gleiche optimieren). Ich würde in der Tat lieber "ein Modell trainieren" verwenden
Tatsächlich geht es bei den meisten meiner Forschungen darum, das Modell zu lernen, um ein besseres Modell oder ein rechnerisch und kognitiv / biologisch / ökologisch plausibles Modell zu finden.
quelle