Als «machine-learning» getaggte Fragen

9
Pseudozufallssequenzvorhersage

Haftungsausschluss: Ich bin Biologe und entschuldige mich für (vielleicht) grundlegende Fragen, die so grob formuliert sind. Ich bin mir nicht sicher, ob ich diese Frage hier oder auf DS / SC stellen soll, aber CS ist die größte von drei. (Nachdem ich gepostet hatte, kam mir der Gedanke, dass...

9
Was war vor dem PAC-Lernen los?

Ich untersuche das PAC-Lernen (Computational Learning Theory) als Anfänger ohne Vorkenntnisse in maschinellem Lernen / KI. Ich untersuche das Modell hauptsächlich aus historischer Sicht. Das Wichtigste dabei sind natürlich die modellbasierten Ergebnisse. Es gibt genügend Papiere, die diese...

9
Ausdruckskraft moderner regulärer Ausdrücke

Ich habe kürzlich mit einem Freund über eine Website gesprochen, auf der Regex-Herausforderungen vorgeschlagen wurden, wobei hauptsächlich eine Gruppe von Wörtern mit einer speziellen Eigenschaft abgeglichen wurde. Er suchte nach einem regulären Ausdruck, der zu Zeichenfolgen passt, bei...

8
Definition des PAC-Lernmodells

Das wahrscheinlich ungefähr korrekte (PAC) Lernmodell ist definiert als: Eine Konzeptklasse gilt als PAC-lernbar, wenn ein Algorithmus und eine Polynomfunktion so dass für alle ε> 0 und δ> 0 für alle Verteilungen D auf X und gilt Für jedes Zielkonzept c∈C gilt für jede Stichprobengröße m≥poly...

8
Lerndynamik

Ich habe kürzlich etwas über Q-Learning gelernt, eine verstärkte Lerntechnik, die den erwarteten Wert einer Aktion in einem Zustand direkt abschätzt. Ich frage mich, ob es Techniken gibt, um "dynamisches Lernen" durchzuführen, um die Dynamik eines Systems abzuschätzen. Ein "Dynamic Learning" -Agent...

8
Zeichenfolgeneingaben beim maschinellen Lernen

Einige gängige Algorithmen für maschinelles Lernen wie die logistische Regression oder neuronale Netze erfordern numerische Eingaben. Was mich interessiert, ist, wie Sie diese Algorithmen für nicht numerische Eingaben (wie kurze Zeichenfolgen) verwenden. Angenommen, wir erstellen ein...

7
Parallele Rechtecke der PAC-Lernachse

Ich versuche den Beweis zu verstehen, dass die achsparallelen Rechtecke im realisierbaren Fall PAC-lernbar sind. Dies bedeutet, dass gegebenϵ,δϵ,δ\epsilon, \delta Mit genügend Daten können wir eine Funktion finden hhh so dass P[error>ϵ]≤δP[error>ϵ]≤δ\mathbb{P}\left[\text{error} >...