Dlaczego rozkład Poissona jest wybrany do modelowania procesów przybycia w problemach teorii kolejkowania?
15
Gdy weźmiemy pod uwagę scenariusze teorii kolejkowania, w których poszczególne osoby przybywają do obsługującego węzła i ustawiają się w kolejce, zwykle do modelowania czasów przybycia stosuje się proces Poissona. Te scenariusze pojawiają się w przypadku problemów z routingiem sieciowym. Doceniłbym intuicyjne wyjaśnienie, dlaczego proces Poissona najlepiej nadaje się do modelowania przyjazdów.
Proces Poissona obejmuje „bez pamięci” czas oczekiwania do przybycia następnego klienta. Załóżmy, że średni czas od jednego klienta do drugiego wynosi . Bez pamięci ciągły rozkład prawdopodobieństwa do następnego przybycia to taki, w którym prawdopodobieństwo oczekiwania na kolejną minutę, sekundę lub godzinę itp., Do następnego przybycia, nie zależy od tego, jak długo czekałeś od ostatniego . To, że odczekałeś już pięć minut od ostatniego przybycia, nie zwiększa prawdopodobieństwa przybycia klienta w następnej minucie, niż gdybyś czekał tylko 10 sekund od ostatniego przybycia.θ
To automatycznie implikuje, że czas oczekiwania do następnego przybycia spełnia Pr ( T > t ) = e - t / θ , tzn. Jest to rozkład wykładniczy.TPr(T>t)=e−t/θ
A to z kolei można wykazać, że liczba klientów przybywających w dowolnym przedziale czasu t spełnia Pr ( X = x ) = e - t / θ ( t / θ ) xXt, tj. ma rozkład Poissona z wartością oczekiwanąt/θ. Ponadto oznacza to, że liczba klientów przybywających w nie nakładających się przedziałach czasowych jest probabilistycznie niezależna.Pr(X=x)=e−t/θ(t/θ)xx!t/θ
Zatem brak pamięci czasów oczekiwania prowadzi do procesu Poissona.
Cokolwiek twierdzą te twierdzenia, jest eksperymentalnym faktem, że - w normalnych sytuacjach - przybysze są bez pamięci. Nie można udowodnić, że liczba klientów przybywających w pewnym okresie nic, naprawdę.
Celem tego pytania nie było żądanie formalnego dowodu. Wiele razy dokonuje się obserwacji, które prowadzą do twierdzenia, a następnie „rozwija się” intuicja, aby dopasować się do obserwacji, a tym samym pomóc utrwalić twierdzenie w powszechnym rozumieniu. Szukałem czegoś podobnego. Zredagowałem moje pytanie, aby uwzględnić to samo.
Vighnesh,
Dziękuję za odpowiedź. Nie nadążam jak pamięci mniej przyloty prowadzi do . Czy mógłbyś opracować lub zacytować odniesienie, które szczegółowo o tym mówi. Dzięki. Pr(T>t)=e−t/θ
Vighnesh
4
Bez pamięci mówi . To samo co Pr ( T > t + s i T > t ) = Pr ( T > s ) . Zdarzenie [ T > t + s oraz T > t ] jest takie samo jak zdarzenie T >Pr(T>t+s∣T>t)=Pr(T>s)Pr(T>t+s and T>t)=Pr(T>s)[T>t+s and T>t] . Stąd prawdopodobieństwo warunkowe wynosi Pr ( T > t + s ) / Pr ( T > t ) . Bez pamięci mówi, że jest to to samo co Pr ( T > s ) . Stąd mamy Pr ( T > t + s ) = Pr ( T > t ) Pr ( T > s ) . Funkcja monotoniczna g, która spełniaT>t+sPr(T>t+s)/Pr(T>t)Pr(T>s)Pr(T>t+s)=Pr(T>t)Pr(T>s)g jest funkcją wykładniczą. A monototyczność wynika z faktu, że Pr ( T > t + s ) musi być mniejsza niż Pr ( T > t ), ponieważ pierwsze zdarzenie implikuje, ale nie jest implikowane przez drugie. g(t+s)=g(t)g(s)Pr(T>t+s)Pr(T>t)
Michael Hardy,
Czy nie powinno to być ? Pr(T>t)=1/θ∗e−t/θ
vonjd
4
Omówi to prawie każde wprowadzenie do teorii kolejkowania lub książki o procesach stochastycznych, np. Ross, Procesy Stochastyczne lub Kleinrock, Teoria kolejkowania.
Na zarys dowodu, że przybywające bez pamięci przyjazdy prowadzą do wykładniczej różnicy:
Niech G (x) = P (X> x) = 1 - F (x). Teraz, jeśli dystrybucja jest bez pamięci,
G (s + t) = G (s) G (t)
tj. prawdopodobieństwo, że x> s + t = prawdopodobieństwo, że jest większe niż s, i że teraz, gdy jest większe niż s, jest większe niż (s + t). Właściwość bez pamięci oznacza, że drugie prawdopodobieństwo (warunkowe) jest równe prawdopodobieństwu, że inny rv o tym samym rozkładzie> t.
Cytując Rossa:
„Jedyne rozwiązania powyższego równania, które spełniają dowolne uzasadnione warunki (takie jak monotoniczność, ciągłość prawa lub lewa, a nawet mierzalność), mają postać:”
G (x) = exp (-ax) dla pewnej odpowiedniej wartości a.
PROJEKT PROCESÓW STOCHASTYCZNYCH: TEORIA ZASTOSOWAŃ Roberta Gallagera ( rle.mit.edu/rgallager/notes.htm ) jest dobrą bezpłatną alternatywą dla wprowadzenia do procesów stochastycznych, w tym dyskusji na temat procesu Poissona
Martin Van der Linden,
Robert Gallager's RAFT OF STOCHASTIC PROCESSES: TEORIA DO ZASTOSOWAŃ
Omówi to prawie każde wprowadzenie do teorii kolejkowania lub książki o procesach stochastycznych, np. Ross, Procesy Stochastyczne lub Kleinrock, Teoria kolejkowania.
Na zarys dowodu, że przybywające bez pamięci przyjazdy prowadzą do wykładniczej różnicy:
Niech G (x) = P (X> x) = 1 - F (x). Teraz, jeśli dystrybucja jest bez pamięci,
G (s + t) = G (s) G (t)
tj. prawdopodobieństwo, że x> s + t = prawdopodobieństwo, że jest większe niż s, i że teraz, gdy jest większe niż s, jest większe niż (s + t). Właściwość bez pamięci oznacza, że drugie prawdopodobieństwo (warunkowe) jest równe prawdopodobieństwu, że inny rv o tym samym rozkładzie> t.
Cytując Rossa:
„Jedyne rozwiązania powyższego równania, które spełniają dowolne uzasadnione warunki (takie jak monotoniczność, ciągłość prawa lub lewa, a nawet mierzalność), mają postać:”
G (x) = exp (-ax) dla pewnej odpowiedniej wartości a.
i jesteśmy w rozkładzie wykładniczym.
źródło