Die Operation des Zufalls in einer deterministischen Welt

15

In Steven Pinkers Buch " Bessere Engel unserer Natur" merkt er das an

Wahrscheinlichkeit ist eine Frage der Perspektive. Einzelereignisse haben, aus ausreichender Nähe betrachtet, bestimmte Ursachen. Sogar ein Münzwurf kann aus den Startbedingungen und den Gesetzen der Physik vorhergesagt werden, und ein erfahrener Magier kann diese Gesetze jedes Mal ausnutzen, um Köpfe zu werfen. Wenn wir jedoch herauszoomen, um eine große Anzahl dieser Ereignisse aus einem weiten Blickwinkel zu betrachten, sehen wir die Summe einer Vielzahl von Ursachen, die sich manchmal gegenseitig aufheben und manchmal in dieselbe Richtung ausrichten. Der Physiker und Philosoph Henri Poincare erklärte, dass wir die Funktionsweise des Zufalls in einer deterministischen Welt sehen, wenn sich eine große Anzahl schwacher Ursachen zu einer gewaltigen Wirkung addiert oder wenn eine kleine Ursache, die unserer Aufmerksamkeit entgeht, eine große Wirkung feststellt, die wir nicht übersehen können .Im Fall von organisierter Gewalt möchte jemand vielleicht einen Krieg beginnen. er wartet auf den günstigen Moment, der kommen kann oder nicht; sein Feind beschließt, einzugreifen oder sich zurückzuziehen; Kugeln fliegen; Bomben platzen; Menschen sterben. Jedes Ereignis kann durch die Gesetze der Neurowissenschaften sowie der Physik und Physiologie bestimmt werden. Insgesamt lassen sich die vielen Ursachen, die in diese Matrix eingehen, manchmal zu extremen Kombinationen zusammenfassen. (S. 209)

Ich interessiere mich besonders für den fettgedruckten Satz, aber ich gebe den Rest für den Kontext. Meine Frage: Gibt es statistische Möglichkeiten, die beiden von Poincare beschriebenen Prozesse zu beschreiben? Hier sind meine Vermutungen:

1) "Eine große Anzahl von schwachen Ursachen summiert sich zu einer gewaltigen Wirkung." Die "große Anzahl von Ursachen" und "Addition" klingt für mich wie der zentrale Grenzwertsatz . In der klassischen Definition der CLT müssen die Ursachen jedoch Zufallsvariablen und keine deterministischen Effekte sein. Ist die Standardmethode hier, um diese deterministischen Effekte als eine Art Zufallsvariable zu approximieren?

2) "Eine kleine Ursache, die unserer Aufmerksamkeit entgeht, bestimmt eine große Wirkung, die wir nicht verfehlen können." Mir scheint, Sie könnten sich das als eine Art verstecktes Markov-Modell vorstellen . Aber die (nicht beobachtbaren) Zustandsübergangswahrscheinlichkeiten in einem HMM sind genau das, Wahrscheinlichkeiten, die per Definition wiederum nicht deterministisch sind.

Andy McKenzie
quelle

Antworten:

7

Interessanter Gedanke (+1).

In den Fällen 1) und 2) ist das Problem dasselbe: Wir haben keine vollständigen Informationen. Und die Wahrscheinlichkeit ist ein Maß für den Informationsmangel.

1) Die kümmerlichen Ursachen mögen rein deterministisch sein, aber es ist unmöglich, durch einen deterministischen Prozess zu erkennen , welche besonderen Ursachen wirksam sind. Denken Sie an Moleküle in einem Gas. Es gelten die Gesetze der Mechanik, also was ist hier zufällig? Die uns verborgene Information: Wo ist welches Molekül mit welcher Geschwindigkeit? Es gilt also die CLT, nicht weil es Zufälligkeiten im System gibt, sondern weil es Zufälligkeiten in unserer Darstellung des Systems gibt .

2) HMM enthält eine Zeitkomponente, die in diesem Fall nicht unbedingt vorhanden ist. Meine Interpretation ist die gleiche wie zuvor, das System mag nicht zufällig sein, aber unser Zugang zu seinem Zustand ist zufällig.

EDIT : Ich weiß nicht, ob Poincare für diese beiden Fälle einen anderen statistischen Ansatz in Betracht gezogen hat. In Fall 1) kennen wir die Varialben, können sie aber nicht messen, weil sie zu viele und zu klein sind. In Fall 2) kennen wir die Variablen nicht. In beiden Fällen machen Sie am Ende Annahmen und modellieren das Beobachtbare so gut wie möglich, und in Fall 2) gehen wir häufig von Normalität aus.

Aber dennoch, wenn es einen Unterschied gäbe, würde er meiner Meinung nach auftauchen . Wenn alle Systeme durch Summen von schwachen Ursachen bestimmt würden, wären alle Zufallsvariablen der physischen Welt Gauß'sch. Dies ist eindeutig nicht der Fall. Warum? Weil es auf die Waage ankommt. Warum? Weil neue Eigenschaften aus Wechselwirkungen in kleinerem Maßstab hervorgehen und diese neuen Eigenschaften nicht Gaußsch sein müssen. Tatsächlich haben wir keine statistische Theorie für die Entstehung (soweit ich weiß), aber vielleicht werden wir es eines Tages tun. Dann ist es gerechtfertigt, unterschiedliche statistische Ansätze für die Fälle 1) und 2) zu haben.

gui11aume
quelle
1
Danke für die Antwort. Stimmen Sie zu, dass beide der Ansicht sind, dass wir keine vollständigen Informationen haben - das ist eine gute Möglichkeit, diese zu formulieren. Ich würde mir jedoch eine Antwort wünschen, die die beiden Fälle besser voneinander unterscheidet. Was dachte Poincare?
Andy McKenzie
Ich sehe dich besorgt. Ich habe meine Antwort bearbeitet, um zu versuchen, so gut wie möglich zu antworten.
gui11aume
4

Ich denke, Sie lesen zu viel in die Aussage. Es scheint alles unter der Voraussetzung zu liegen, dass die Welt deterministisch ist und dass die Menschen sie probabilistisch modellieren, weil es einfacher ist, sich auf diese Weise anzunähern, als alle Details der Physik und alle anderen mathematischen Gleichungen, die sie beschreiben, durchzugehen. Ich denke, dass es seit langem eine Debatte über Determinismus gegenüber zufälligen Effekten gibt, insbesondere zwischen Physikern und Statistikern. Die folgenden vorangegangenen Sätze zu dem, was Sie kühn gemacht haben, haben mich besonders beeindruckt. "Sogar ein Münzwurf kann aus den Startbedingungen und den Gesetzen der Physik vorhergesagt werden, und ein erfahrener Magier kann diese Gesetze jedes Mal ausnutzen, um Köpfe zu werfen." Als ich in den späten 1970er Jahren ein Doktorand in Stanford war, versuchten Persi Diaconi, ein Statistiker und ein Magier, und Joe Keller, ein Physiker, tatsächlich, die Gesetze der Physik auf einen Münzwurf anzuwenden, um zu bestimmen, was das Otucom basierend auf den Anfangsbedingungen in Bezug auf ob sein würde oder nicht Köpfe ist aufgedeckt und genau; y wie die Kraft des Fingers die Münze schlägt. Ich glaube, sie haben es vielleicht geschafft. Aber zu glauben, dass ein Zauberer, selbst wenn er über die magische Ausbildung und das statistische Wissen einer Persidiakone verfügt, die Münze umdrehen und sie jedes Mal auf den Kopf stellen könnte, ist absurd. Ich glaube, sie haben festgestellt, dass es unmöglich ist, die Anfangsbedingungen zu wiederholen, und ich denke, dass die Chaostheorie zutrifft. Kleine Störungen im Ausgangszustand haben große Auswirkungen auf den Flug der Münze und machen das Ergebnis unvorhersehbar. Als Statistiker würde ich sagen, selbst wenn die Welt deterministisch ist, können stochastische Modelle Ergebnisse besser vorhersagen als komplexe deterministische Gesetze. Wenn die Physik einfach ist, können und sollten deterministische Gesetze angewendet werden. Zum Beispiel funktioniert Newtons Gravitationsgesetz gut bei der Bestimmung der Geschwindigkeit, die ein Objekt hat, wenn es auf den Boden fällt, aus 10 Fuß Höhe und unter Verwendung der Gleichung d = gt /2 Sie können für die Zeit sehrden Fall abzuschließen dauert es genau wie gutda die Gravitationskonstante g zu einem hohen Maß an Genauigkeit bestimmt wurdeund die Gleichung gilt fast genau zu lösen.2

Michael R. Chernick
quelle
2
Michael Chernick, dieser Artikel über Diaconis könnte Sie interessieren .
Cyan,
Ich würde den Satz "... Menschen modellieren es probabilistisch, weil es einfacher ist, sich auf diese Weise anzunähern ..." durch "... Menschen modellieren es probabilistisch, weil es zu schwierig ist, die winzigen Details zu integrieren, die die meiste Zeit spielt es keine Rolle, ... ". Außerdem gehen Sie eine eher philosophische / konzeptionelle Frage "praktisch" an. Die Chaostheorie ist nur ein Problem "in der Praxis", weil wir keine willkürlich genauen Darstellungen von Zahlen haben. Ein weiteres Problem mit deterministischen Gesetzen ist, dass sie oft von Dingen abhängen, die wir nicht messen können.
Wahrscheinlichkeitslogik
1
Vielen Dank Cyan. Ich habe diesen Artikel nicht gesehen, aber ich habe einige andere über Persi gesehen, und ich kenne ihn ziemlich gut als ehemaligen Assistenzprofessor, der mir Wahrscheinlichkeitstheorie und Zeitreihen beigebracht hat, als wir beide Ende zwanzig und Anfang dreißig von 1974 bis 1978 waren . Auch Persi ließ mich und Michael Cohen (als Michael Cohen und ich beide Doktoranden waren) Hunderte oder Tausende Male Würfel auf einem Tuch rasieren, um seine Theorie zu bestätigen, was die Tendenz für diese Art der Rasur sein würde.
Michael R. Chernick
1
Wie jeder gute Experimentator erzählte er uns nicht, dass sie rasiert waren, und es war kein so großer Unterschied im Bereich, um es für das Auge wahrnehmbar zu machen. Natürlich, wenn Sie ein Glücksspielunternehmen mit rasierten Würfeln betrügen wollten, konnten Sie sich nicht so stark rasieren, dass es auffiel, und doch nicht so wenig, dass Sie ewig brauchen würden, um ein paar gute Gewinne zu erzielen und den Ruinen der Spieler auszuweichen. Natürlich hatten wir ein gewisses Misstrauen gegenüber dem Experiment, da es nicht sehr sinnvoll war zu versuchen, zu bestätigen, dass jede Seite fast 1/6 der Zeit erreichte.
Michael R. Chernick
Ein Experiment durchzuführen, um zu zeigen, dass man eine faire Münze zugunsten von Köpfen beeinflussen kann, ist weit davon entfernt, jedes Mal einen Kopf zu bekommen. Statistiker werden von Lotteriekommissionen verwendet, um ihre Maschinen zu testen, um sicherzustellen, dass sie fair sind.
Michael R. Chernick
4

2N 2N

Nanbnlimnanbn=1

(NNf)12πNf(1f)exp(NH(f))

H(f)=flog(f)+(1f)log(1f)H(f)12

H(f)log(2)+2(f12)2

Also haben wir auch:

(NNf)2N12πNf(1f)exp(2N(NfN2)2)

f

Wahrscheinlichkeitslogik
quelle
1
Vielen Dank. Ich denke, das OP hat nicht zu viel darüber gelesen, wie man den fettgedruckten Satz mit dem CLT verbindet. Aber kann ich sicherstellen, dass ich das richtig verstehe? Wollen Sie damit sagen, dass für große N die Anzahl der Kombinationen von N zu einem Zeitpunkt genommenen Dingen Nf ungefähr gleich der normalen Dichte mit dem Varianzparameter Nf (1-F) und dem mittleren Parameter N / 2 ist? Auch dies ist nur eine asymptotische mathematische Eigenschaft ohne Zusammenhang mit der Wahrscheinlichkeit? Das ist so erstaunlich, als würde man die De Moivre-LaPlace-Version des zentralen Grenzwertsatzes unter Verwendung der Quincunx-Konstruktion in Aktion sehen!
Michael R. Chernick
Danke, es ist sehr hilfreich, die Normalverteilung nicht probabilistisch zu betrachten. Ich verstehe jedoch nicht, 1) wie diese erste Grenze entsteht und 2) welchen Punkt Sie bei der Erweiterung der Taylor-Serie spielen.
Andy McKenzie
1
anbnan/bn1
Die Änderungen sehen besser aus. In der ersten Anzeigegleichung muss jedoch noch ein Term fehlen. :)
Kardinal
log(N)
0

Das Zitat aus Pinkers Buch und die Idee einer deterministischen Welt ignorieren die Quantenmechanik und das Heisenberg-Prinzip völlig. Stellen Sie sich vor, Sie stellen eine kleine Menge radioaktiver Stoffe in die Nähe eines Detektors und ordnen die Mengen und Abstände so an, dass eine Wahrscheinlichkeit von 50% besteht, dass während eines festgelegten Zeitintervalls ein Zerfall festgestellt wird. Schließen Sie nun den Melder an ein Relais an, das bei einem erkannten Zerfall etwas sehr Wichtiges bewirkt, und bedienen Sie das Gerät nur einmal.

Sie haben jetzt eine Situation geschaffen, in der die Zukunft von Natur aus unvorhersehbar ist. (Dieses Beispiel stammt von jemandem, der Mitte der 1960er Jahre am MIT Physik im zweiten oder zweiten Studienjahr unterrichtet hat.)

Emil Friedman
quelle