Mir scheint, dass Experten für maschinelles Lernen / Data Mining mit P und NP vertraut sind, aber selten über einige der subtileren Komplexitätsklassen (z. B. NC, BPP oder IP) und deren Auswirkungen auf eine effektive Datenanalyse sprechen. Gibt es eine Arbeitserhebung dazu?
cc.complexity-theory
reference-request
machine-learning
Mike Izbicki
quelle
quelle
Antworten:
Zwischen den beiden Bereichen des angewandten maschinellen Lernens und der TCS / Komplexitätstheorie besteht ein gewisser inhärenter Unterschied oder eine gewisse Unähnlichkeit der Ansätze.
Hier ist ein aktueller Workshop zum Thema im Center for Computational Intractability, Princeton, mit vielen Videos.
In der TCS wird ein Hauptstudienbereich des "Lernens", manchmal verwirrenderweise auch "maschinelles Lernen" genannt, PAC-Theorie genannt, die für "wahrscheinlich ungefähr richtig" steht. Seine Anfänge in den frühen 1980er Jahren gehen auf eine viel modernere Erforschung des "maschinellen Lernens" zurück. wikipedia nennt es einen Teil der Theorie des rechnergestützten Lernens . PAC betrifft häufig Ergebnisse des Lernens von Booleschen Formeln bei statistischen Stichproben der Verteilungen usw. und die erreichbare Genauigkeit des Lernens bei verschiedenen Algorithmen oder begrenzten Stichproben. Dies wird in einer rigorosen theoretischen Weise unter Einbeziehung von Komplexitätsklassen untersucht. Aber es ist nicht so sehr eine Seite für angewandte Studien und Wikipedien zum maschinellen Lernen, die es nicht einmal auflistet.
Die rechnergestützte Komplexität des maschinellen Lernens Dissertation von Kearns
Xing zeigt maschinelles Lernen (PAC)
quelle