Angenommen, ein Algorithmus lernt C agnostisch über jede Verteilung, wenn er für jedes D mit einer Wahrscheinlichkeit von 2/3 eine Funktion f finden kann, so dass err (f, D) \ leq OPT (C, D) + \ epsilon gegeben ist , gegebene Zeit und eine Anzahl von Proben aus D , die durch ein Polynom in d und 1 / \ epsilon begrenzt sind .
Frage: Welche Funktionsklassen sind bekanntermaßen über beliebige Verteilungen agnostisch lernbar?
Keine Klasse ist zu einfach! Ich weiß, dass selbst monotone Konjunktionen nicht über beliebige Verteilungen agnostisch lernbar sind, deshalb suche ich nur nach nichttrivialen Funktionsklassen.
reference-request
machine-learning
lg.learning
Aaron Roth
quelle
quelle
Antworten:
Wenn keine Klasse zu einfach ist, finden Sie hier einige agnostisch PAC-lernbare Klassen. In Reaktion auf die Kommentare werden die Klassen mit polynomiell vielen Hypothesen durchgestrichen:
Entscheidungsbäume mit konstanter Tiefe (und andere Klassen mit nur mehreren Hypothesen)Hyperebenen in (nur -Hypothesen, die unterschiedliche Markierungen erzeugen)R2 O(n2) andere Hypothesenklassen in niedrigdimensionalen Umgebungen.So ziemlich alles andere ist NP-schwer (zumindest richtig) agnostisch PAC zu lernen.
Das Tutorial von Adam Kalai zum agnostischen Lernen könnte Sie ebenfalls interessieren.
quelle