Wettbewerb gegen eine optimal gewichtete Mehrheit im Expertenalgorithmus

8

Im Expertenproblem geben Ihnen Experten täglich binäre Vorhersagen, und Sie müssen vorhersagen, ob es morgen regnen wird.n

Das heißt, am Tag kennen Sie die früheren Vorhersagen der Experten, das tatsächliche Wetter für die Tage und die Vorhersagen für morgen und müssen vorhersagen, ob es am nächsten Tag regnen wird.t1,2,t

Im klassischen Weighted Majority- Algorithmus macht der Algorithmus -Fehler, wobei die Anzahl der Fehler des besten Experten ist.O(logn+m)m

Für mich scheint dies ein äußerst schwaches Versprechen zu sein, da es keinen Nutzen daraus zieht, Vorhersagen mehrerer Experten zu kombinieren.

Angenommen, jedes Ergebnis ist , die Vorhersage des Experten am Tag ist und das Ergebnis des Tages ist . Wir können einen Gegner mit optimaler gewichteter Mehrheit als optimale Gewichtsfunktion , so dass die Entscheidung des Gegners am Tag als wird. dh die gewichtete Mehrheit der Vorhersagen in Bezug auf den Vektor . Mit dieser Notation konnte der vorherige Gegner (bester Experte) nur Einheitsvektoren auswählen.{±1}itpi,ttotwΔ([n])tsign(wpt)w

Wir können dann den optimalen Fehler für die Tage wie definieren : 1,2,T

E=12minwΔ([n])t=1T|sign(wpt)ot|

Wie würden Sie das Bedauern im Vergleich zu E minimieren E?


Um zu sehen, dass dies ein viel mächtigerer Gegner ist, betrachten Sie den Fall von 3 Experten und 3 Tagen, in denen das Ergebnis immer 1 . Wenn p1=(1,1,1),p2=(1,1,1),p3=(1,1,1) , dann hatte jeder Experte einen Fehler, aber einen gewichteten Mehrheitsvektor von (1/3,1/3,1/3) hatte keine.

RB
quelle
1
Ich denke, Sie suchen nach der Methode des potenzierten
Lev Reyzin
Multiplikative Gewichte haben den Fehler relativ zum besten Einzelexperten (von ) über Runden. Wir könnten "Meta-Experten" erstellen , die allen möglichen gewichteten Mehrheiten entsprechen, und dann MW ausführen, um den Fehler . Ich bin mir nicht sicher, wie groß muss - vielleicht reicht aus. O(Tlogn)nTNO(TlogN)NN=nO(n)
Thomas
@ Thomas - habe vor einiger Zeit darüber nachgedacht. Sie müssten , was ziemlich groß ist: oeis.org/A000609 . N=nΘ(n2)
RB
O(nTlogn) Fehler sind ein guter Anfang. Was streben Sie an?
Thomas
@ Thomas - es ist in der Tat ein Anfang. Ich hatte auf einen -Algorithmus gehofft und glaube, dass er machbar sein sollte. o(nT)
RB

Antworten:

1

Wenn Ihnen die Randomisierung nichts ausmacht, bieten Ihnen Standard-Online-Lernalgorithmen im "Online Convex Optimization Framework" erwartungsgemäß im Wesentlichen das, wonach Sie fragen. Der Grund dafür ist, dass diese Algorithmen erforderlich sind, um zu jedem Zeitschritt eine Verteilung an Experten auszugeben , wobei ein erwarteter Verlust zu erwarten ist, der der Erwartung entspricht, einen Experten aus dieser Verteilung auszuwählen. Und sie haben ein geringes erwartetes Bedauern im Vergleich zu der besten Verteilung unter Experten, dh .wΔ([n])O(lnn/T)

Sie können beispielsweise den klassischen Algorithmus für multiplikative Gewichte verwenden, bei dem es sich nur um eine gewichtete Mehrheit handelt, bei dem jedoch ein Experte ausgewählt wird, der mit einer Wahrscheinlichkeit proportional zu seinem "Gewicht" folgt. Dies wird in Aroras Umfrage (Satz 6) erwähnt: https://www.cs.princeton.edu/~arora/pubs/MWsurvey.pdf

usul
quelle
2
Usul, wenn Sie sagen "Bedauern im Vergleich zu der besten Verteilung auf Experten", ist es das, was RB verlangt? Ist es nicht die Standardmethode, eine Verteilung auf Experten zu verwenden, um einfach zu jedem Zeitpunkt eine gebrochene Vorhersage zu machen ? Oder (mehr oder weniger äquivalent), um 1 mit Wahrscheinlichkeit und andernfalls -1 vorherzusagen . Dann gibt es immer ein optimales mit nur einem Experten, oder? Aber wie ich den Vorschlag von RB verstehe, ist es etwas anders: Machen Sie die ganzzahlige Vorhersage: Vorzeichen zu jedem Zeitpunkt . Ist klar, dass dies keine wesentlich besseren Vorhersagen liefern kann? wwptt(wpt+1)/2w(wpt)t
Neal Young
@NealYoung, guter Punkt, ich habe nicht so tief darüber nachgedacht. Ich habe implizit angenommen, dass Sie diese objektive Funktion konvexisieren und es gut bereuen können, aber das könnte falsch sein ...
usul