Es ist bekannt, dass für das klassische PAC-Lernen Beispiele für erforderlich sind, um eine Fehlergrenze von ε whp zu erreichen, wobei d die VC-Dimension der Konzeptklasse ist.
Ist bekannt, dass im agnostischen Fall Beispiele für benötigt werden?
Es ist bekannt, dass für das klassische PAC-Lernen Beispiele für erforderlich sind, um eine Fehlergrenze von ε whp zu erreichen, wobei d die VC-Dimension der Konzeptklasse ist.
Ist bekannt, dass im agnostischen Fall Beispiele für benötigt werden?
Antworten:
Mir ist jetzt klar, dass Anthony und Bartlett tatsächlich eine Untergrenze festgelegt haben (siehe die Präsentation hier ).
Bearbeiten 24-Sep-2018. Diese Frage hat mich all die Jahre beschäftigt, und kürzlich haben I. Pinelis und ich die exakte optimale Konstante in der unteren Grenze des agnostischen PAC erhalten , die in Ann erscheint. Stat .
quelle