Angluin und Laird ('88) formalisierten das Lernen mit zufällig verfälschten Daten im Modell "PAC mit zufälligem Klassifizierungsrauschen" (oder verrauschtem PAC). Dieses Modell ähnelt dem PAC-Lernen , mit der Ausnahme, dass die Bezeichnungen der Beispiele, die dem Lernenden gegeben wurden, unabhängig voneinander zufällig mit einer Wahrscheinlichkeit verfälscht (umgedreht) werden .
Kearns ('93) führte das Statistical Query Model (SQ) zum Lernen ein, um zu charakterisieren, was im lauten PAC-Modell lernbar ist . In diesem Modell kann ein Lernender ein statistisches Orakel nach Eigenschaften der Zielverteilung abfragen, und er hat gezeigt, dass jede Klasse, die SQ-lernbar ist, in verrauschtem PAC lernbar ist. Kearns bewies auch, dass Paritäten auf Variablen für eine Konstante nicht schneller als rechtzeitig gelernt werden können .
Dann haben Blum et al. ('00) trennte verrauschtes PAC von SQ, indem gezeigt wurde, dass Paritäten auf dem ersten im verrauschten PAC-Modell polynomial lernbar sind, im SQ-Modell jedoch nicht.
Meine Frage lautet:
Paritäten (für die ersten Variablen ) können im verrauschten PAC-Modell gelernt werden, nicht jedoch im SQ-Modell. Gibt es andere spezifische Klassen, die sich ausreichend von der Parität unterscheiden und bekanntermaßen in lautem PAC, aber nicht in SQ lernbar sind?
quelle
Das ist eine gute Frage. Ich denke, Sie suchen nach einer anderen Trenntechnik und nicht nur nach einer anderen Funktionsklasse (da es einfach ist, natürliche und künstliche Beispiele für Konzeptklassen zu nennen, deren Trennung immer noch auf dem BKW-Ergebnis beruht). Ich würde noch weiter gehen und sagen, dass selbst das Paritätsbeispiel keine entscheidende Trennung ist, da das SQ-Modell das Lernen mit einer inversen Polynomrate nahe 1/2 ermöglicht, während BKW kein Rauschen der Rate zulässt . Ich denke, es wäre interessant, eine "reine" Trennung zu finden. Es scheint, dass dies auch eine neue Technik erfordern würde, die Ihre ursprüngliche Frage beantwortet.1/2−n−ϵ
quelle