Diese Frage ist vom T-Shirt des Georgia Tech Algorithms and Randomness Center inspiriert, in dem die Frage gestellt wird: " Zufällig oder nicht ?!"
Es gibt viele Beispiele, in denen Randomisierung hilfreich ist, insbesondere wenn Sie in einer widrigen Umgebung arbeiten. Es gibt auch einige Einstellungen, bei denen Randomisierung nicht hilft oder schadet. Meine Frage ist:
Was sind einige Einstellungen, wenn Randomisierung (auf eine scheinbar vernünftige Weise) tatsächlich weh tut?
Fühlen Sie sich frei, "Einstellungen" und "Schmerzen" allgemein zu definieren, sei es in Bezug auf die Komplexität des Problems, nachweisbare Garantien, Annäherungsverhältnisse oder Laufzeit (ich gehe davon aus, dass die Laufzeit die klareren Antworten liefert). Je interessanter das Beispiel, desto besser!
quelle
Antworten:
Hier ist ein einfaches Beispiel aus der Spieltheorie. In Spielen, in denen sowohl reine als auch gemischte Nash-Gleichgewichte existieren, sind die gemischten oft viel weniger natürlich und viel "schlechter".
Die Botschaft zum Mitnehmen: Randomisierung kann die Koordination beeinträchtigen.
quelle
Hier ist ein einfaches Beispiel aus dem Bereich der verteilten Algorithmen.
Typischerweise hilft Zufälligkeit enorm. Randomisierte verteilte Algorithmen sind oft einfacher zu entwerfen und schneller.
Wenn Sie jedoch einen schnellen deterministischen verteilten Algorithmus haben, können Sie ihn mechanisch [ 1 , 2 ] in einen schnellen selbststabilisierenden Algorithmus umwandeln . Im Wesentlichen erhalten Sie kostenlos eine sehr starke Version der Fehlertoleranz (zumindest, wenn die Engpassressource die Anzahl der Kommunikationsrunden ist). Sie können Ihren Algorithmusentwurf vereinfachen, indem Sie sich auf fehlerfreie synchrone statische Netzwerke konzentrieren. Durch die Konvertierung erhalten Sie einen fehlertoleranten Algorithmus, der mit asynchronen dynamischen Netzwerken umgehen kann.
Für randomisierte verteilte Algorithmen ist im Allgemeinen keine solche Konvertierung bekannt .
quelle
Lassen Sie mich zunächst ein Problem in Bezug auf die Zufälligkeit ansprechen:
Dies ist eine philosophische Frage, die sowohl umstritten als auch in keinem Zusammenhang mit dem Kontext steht. Dennoch habe ich es als warnendes Wort benutzt, da die bevorstehende Antwort umstritten sein wird, wenn man sich zu tief mit der obigen Frage befasst.
Das Shannon-Hartley-Theorem beschreibt die Kapazität eines Kommunikationskanals bei Vorhandensein von Rauschen. Das Rauschen ändert sich mit einer bestimmten Wahrscheinlichkeit von 0 auf 1 und umgekehrt.
Wenn sich der Kanal deterministisch verhalten würde --- Das heißt, wenn wir das Rauschen so modellieren könnten, dass wir bestimmen könnten, welche Bits sich ändern würden --- Die Kapazität des Kanals wäre unendlich groß. Sehr wünschenswert!
Ich vergleiche gerne Zufälligkeit mit Reibung: Sie widersteht der Bewegung, aber ohne sie ist Bewegung unmöglich.
quelle