Mam aplikację opartą na serwletach, w której mierzę czas potrzebny na ukończenie każdego żądania do tego serwletu. Już obliczam proste statystyki, takie jak średnia i maksimum; Chciałbym jednak opracować bardziej wyrafinowaną analizę i do tego celu uważam, że muszę odpowiednio modelować czasy reakcji.
Z pewnością, powiadam, czasy odpowiedzi są zgodne z dobrze znaną dystrybucją i istnieją dobre powody, by sądzić, że dystrybucja jest właściwym modelem. Nie wiem jednak, jaka powinna być ta dystrybucja.
Przychodzą mi na myśl log-normal i Gamma i możesz wykonać jeden z dopasowanych danych czasu rzeczywistego. Czy ktoś ma pogląd na to, jaką dystrybucję powinny przestrzegać czasy reakcji?
źródło
Moje badania pokazują, że najlepszy model zależy od kilku rzeczy: 1) Czy zajmujesz się ciałem, ogonem lub jednym i drugim? Jeśli nie „oba”, modelowanie filtrowanego zestawu danych może być bardziej przydatne. 2) Czy chcesz bardzo prosty czy bardzo dokładny? tj. ile parametrów?
Jeśli odpowiedź na 1 była „zarówno”, jak i 2 była „prosta”, Pareto wydaje się działać najlepiej. W przeciwnym razie, jeśli 1 byłby „ciałem”, a 2 był „prosty” - wybierz filtrowany model erlang. Jeśli 1 było „zarówno”, jak i 2 było „dokładne”, prawdopodobnie chcesz mieć model mieszanki gaussowskiej na swoich danych w domenie dziennika - w efekcie lognormalne dopasowanie.
Ostatnio badam tę kwestię i nie znalazłem wystarczająco dobrego tematu w publicznym Internecie, więc właśnie napisałem post na blogu, w którym szczegółowo opisałem moje badania na ten temat.
źródło