Als «lg.learning» getaggte Fragen

11
Gegeben

Hier ist ein Problem mit einem ähnlichen Geschmack wie beim Lernen von Juntas: Eingabe: Eine Funktion f: { 0 , 1 }n→ { - 1 , 1 }f:{0,1}n→{−1,1}f: \{0,1\}^n \rightarrow \{-1,1\} , dargestellt durch ein Mitgliedschaftsorakel, dh ein Orakel, das xxx , gibt f( x )f(x)f(x) . Ziel: Finden Sie einen...

11
Lernen mit „stillschweigenden“ Orakeln

Meine Frage ist ein bisschen allgemein gehalten, deshalb denke ich mir eine schöne Geschichte aus, um sie zu rechtfertigen. Trage es mit mir, wenn es nicht realistisch ist ;-) Geschichte Herr X, der Leiter der Computersicherheitsabteilung eines großen Unternehmens, ist etwas paranoid: Er verlangt,...

10
Eine Paritätslernfrage

Definieren wir eine Klasse von Funktionen über eine Menge von Bits. Fixieren Sie zwei Verteilungen , die sich "vernünftigerweise" voneinander unterscheiden (wenn Sie möchten, beträgt ihr Variationsabstand mindestens oder etwas Ähnliches).nnnp,qp,qp, qϵϵ\epsilon Nun wird jede Funktion in dieser...

10
Untergrenze der agnostischen PAC-Probenahme

Es ist bekannt, dass für das klassische PAC-Lernen Beispiele für erforderlich sind, um eine Fehlergrenze von ε whp zu erreichen, wobei d die VC-Dimension der Konzeptklasse ist.Ω(d/ε)Ω(d/ε)\Omega(d/\varepsilon)εε\varepsilonddd Ist bekannt, dass im agnostischen Fall Beispiele für benötigt...

9
Theoretische Ergebnisse für zufällige Wälder?

Zufällige Wälder haben unter Praktikern den Ruf, zu den effektivsten Klassifizierungstechniken zu gehören. In der lerntheoretischen Literatur, aus der ich das Fehlen tiefer theoretischer Ergebnisse vermute, begegnen wir ihnen jedoch nicht viel. Wenn man sich mit dieser Theorie befassen wollte, wo...

8
Rechenkomplexität von Clustering-Algorithmen

Mein Wunsch ist es, die zeitliche Komplexität mehrerer Clustering-Ansätze zu beschreiben. Angenommen, wir haben Datenpunkte im dimensionalen Raum.mnnnmmm Nehmen wir weiter an, dass die paarweise Unähnlichkeitsmatrix von Dimensionen bereits berechnet wurde und dass wir bereits Schritte ausgegeben...