Warum wird die Poisson-Verteilung gewählt, um Ankunftsprozesse in Problemen der Warteschlangentheorie zu modellieren?
15
Wenn wir Szenarien der Warteschlangentheorie betrachten, in denen Personen an einem bedienenden Knoten ankommen und sich in der Warteschlange befinden, wird normalerweise ein Poisson-Prozess verwendet, um die Ankunftszeiten zu modellieren. Diese Szenarien treten bei Netzwerkroutingproblemen auf. Ich würde mich über eine intuitive Erklärung freuen, warum ein Poisson-Prozess am besten geeignet ist, um die Ankünfte zu modellieren.
Der Poisson-Prozess beinhaltet eine "gedächtnislose" Wartezeit bis zum Eintreffen des nächsten Kunden. Angenommen, die durchschnittliche Zeit von einem Kunden zum nächsten ist θ . Eine memorylose kontinuierliche Wahrscheinlichkeitsverteilung bis zur nächsten Ankunft ist eine Verteilung, bei der die Wahrscheinlichkeit, eine weitere Minute oder Sekunde oder Stunde usw. bis zur nächsten Ankunft zu warten, nicht davon abhängt, wie lange Sie seit der letzten Ankunft gewartet haben . Dass Sie bereits fünf Minuten seit der letzten Ankunft gewartet haben, bedeutet nicht, dass ein Kunde mit größerer Wahrscheinlichkeit in der nächsten Minute eintrifft, als wenn Sie nur zehn Sekunden seit der letzten Ankunft gewartet hätten.
Dies impliziert automatisch, dass die Wartezeit bis zur nächsten Ankunft Pr ( T > t ) = e - t / θ erfüllt , dh es ist eine Exponentialverteilung.TPr(T>t)=e−t/θ
Und dies kann wiederum bedeuten, dass die Anzahl von Kunden, die während eines beliebigen Zeitintervalls der Länge t ankommen, Pr ( X = x ) = e - t / θ ( t / θ ) x erfülltXtdh es hat eine Poisson-Verteilung mit dem erwarteten Wertt/θ. Darüber hinaus impliziert dies, dass die Anzahl der Kunden, die in nicht überlappenden Zeitintervallen ankommen, wahrscheinlich unabhängig ist.Pr(X=x)=e−t/θ(t/θ)xx!t/θ
Gedächtnislosigkeit der Wartezeiten führt also zum Poisson-Prozess.
Was auch immer die Theoreme aussagen mögen, es ist eine experimentelle Tatsache, dass - in normalen Situationen - Ankünfte memorylos sind. Man kann nicht beweisen, dass die Anzahl der Kunden, die in einem bestimmten Zeitraum ankommen, wirklich nichts ist.
Mit der Frage sollte nicht um einen formellen Beweis gebeten werden. Oft werden Beobachtungen gemacht, die zu einem Theorem führen, und dann wird die Intuition "entwickelt", um zu den Beobachtungen zu passen und so zu helfen, das Theorem im allgemeinen Verständnis zu festigen. Ich habe nach etwas Ähnlichem gesucht. Habe meine Frage so bearbeitet, dass sie die gleiche enthält.
Vighnesh
Danke für die Antwort. Ich habe nicht genau verfolgt, wie die speicherlose Ankunft zu . Könnten Sie bitte eine Referenz ausarbeiten oder zitieren, die ausführlich darüber spricht. Vielen Dank. Pr(T>t)=e−t/θ
Vighnesh
4
Gedächtnislosigkeit sagt . Das ist dasselbe wie Pr ( T > t + s und T > t ) = Pr ( T > s ) . Das Ereignis [ T > t + s und T > t ] ist dasselbe wie das Ereignis T >Pr(T>t+s∣T>t)=Pr(T>s)Pr(T>t+s and T>t)=Pr(T>s)[T>t+s and T>t] . Daher ist die bedingte Wahrscheinlichkeit Pr ( T > t + s ) / Pr ( T > t ) . Die Gedächtnislosigkeit besagt, dass dies dasselbe ist wie Pr ( T > s ) . Wir haben also Pr ( T > t + s ) = Pr ( T > t ) Pr ( T > s ) . Eine monotone Funktion g , die erfülltT>t+sPr(T>t+s)/Pr(T>t)Pr(T>s)Pr(T>t+s)=Pr(T>t)Pr(T>s)g ist eine Exponentialfunktion. Und Monotizität ergibt sich aus der Tatsache, dass Pr ( T > t + s ) kleiner sein muss als Pr ( T > t ), weil das erstere Ereignis das letztere impliziert, aber nicht impliziert. g(t+s)=g(t)g(s)Pr(T>t+s)Pr(T>t)
Michael Hardy
Sollte es nicht sein ? Pr(T>t)=1/θ∗e−t/θ
Vonjd
4
In so ziemlich jedem Buch über Warteschlangentheorie oder stochastische Prozesse wird dieses Thema behandelt, z. B. Ross, Stochastic Processes oder Kleinrock, Queuing Theory.
Um einen Beweis zu liefern, dass memorylose Ankünfte zu einer exponentiellen Distanz führen:
Es sei G (x) = P (X> x) = 1 - F (x). Nun, wenn die Verteilung memoryless ist,
G (s + t) = G (s) G (t)
dh die Wahrscheinlichkeit, dass x> s + t = die Wahrscheinlichkeit, dass es größer als s ist, und dass, jetzt, wo es größer als s ist, es größer als (s + t) ist. Die Eigenschaft memoryless bedeutet, dass die zweite (bedingte) Wahrscheinlichkeit gleich der Wahrscheinlichkeit ist, dass ein anderes rv mit derselben Verteilung> t ist.
Ross zitieren:
Die einzigen Lösungen der obigen Gleichung, die irgendeine Art von vernünftigen Bedingungen erfüllen (wie Monotonie, rechte oder linke Kontinuität oder sogar Messbarkeit), haben die Form:
G (x) = exp (-ax) für einen geeigneten Wert von a.
Robert Gallagers ENTWURF STOCHASTISCHER PROZESSE: THEORIE FÜR ANWENDUNGEN ( rle.mit.edu/rgallager/notes.htm ) ist eine gute kostenlose Alternative für eine Einführung in stochastische Prozesse einschließlich einer Diskussion des Poisson-Prozesses
Martin Van der Linden,
Robert Gallagers RAFT OF STOCHASTIC PROCESSES: THEORIE FÜR ANWENDUNGEN
In so ziemlich jedem Buch über Warteschlangentheorie oder stochastische Prozesse wird dieses Thema behandelt, z. B. Ross, Stochastic Processes oder Kleinrock, Queuing Theory.
Um einen Beweis zu liefern, dass memorylose Ankünfte zu einer exponentiellen Distanz führen:
Es sei G (x) = P (X> x) = 1 - F (x). Nun, wenn die Verteilung memoryless ist,
G (s + t) = G (s) G (t)
dh die Wahrscheinlichkeit, dass x> s + t = die Wahrscheinlichkeit, dass es größer als s ist, und dass, jetzt, wo es größer als s ist, es größer als (s + t) ist. Die Eigenschaft memoryless bedeutet, dass die zweite (bedingte) Wahrscheinlichkeit gleich der Wahrscheinlichkeit ist, dass ein anderes rv mit derselben Verteilung> t ist.
Ross zitieren:
Die einzigen Lösungen der obigen Gleichung, die irgendeine Art von vernünftigen Bedingungen erfüllen (wie Monotonie, rechte oder linke Kontinuität oder sogar Messbarkeit), haben die Form:
G (x) = exp (-ax) für einen geeigneten Wert von a.
und wir sind bei der Exponentialverteilung.
quelle