Rozumiem debatę bayesowską kontra częstokroćową, że statystyki częstokrzyskie:
- jest (lub twierdzi, że jest) obiektywny
- lub przynajmniej bezstronny
- tak więc różni badacze, stosując różne założenia, mogą nadal uzyskać porównywalne ilościowo wyniki
podczas gdy statystyki bayesowskie
- twierdzi, że dokonuje „lepszych” prognoz (tj. niższych oczekiwanych strat), ponieważ może wykorzystać wcześniejszą wiedzę (między innymi)
- potrzebuje mniej wyborów „ad hoc”, zastępując je wcześniejszymi / modelowymi wyborami, które (przynajmniej w zasadzie) mają rzeczywistą interpretację.
Biorąc to pod uwagę, spodziewałbym się, że statystyki bayesowskie będą bardzo popularne w SPC: Gdybym był właścicielem fabryki próbującym kontrolować jakość mojego procesu, martwiłbym się przede wszystkim spodziewaną stratą; Gdybym mógł to zmniejszyć, ponieważ mam więcej / lepszą wcześniejszą wiedzę niż moi konkurenci, nawet lepiej.
Ale praktycznie wszystko, co przeczytałem o SPC, wydaje się być zdecydowanie częste (tj. Brak wcześniejszych rozkładów, oszacowanie punktowe wszystkich parametrów, wiele doraźnych wyborów dotyczących wielkości próby, wartości p itp.)
Dlaczego? Rozumiem, dlaczego statystyki częstokrzyskie były lepszym wyborem w latach sześćdziesiątych, kiedy SPC wykonywano za pomocą pióra i papieru. Ale dlaczego od tego czasu nikt nie próbował różnych metod?
źródło
Odpowiedzi:
OSTRZEŻENIE Napisałem tę odpowiedź dawno temu, nie mając pojęcia, o czym mówię. Nie mogę go usunąć, ponieważ został zaakceptowany, ale nie mogę stać za większością treści.
To bardzo długa odpowiedź i mam nadzieję, że będzie w jakiś sposób pomocna. SPC nie jest moją dziedziną, ale myślę, że te komentarze są na tyle ogólne, że mają tutaj zastosowanie.
Twierdziłbym, że najczęściej cytowaną zaletą - umiejętnością uwzględnienia wcześniejszych przekonań - jest słaba przewaga zastosowana / pola empiryczne. To dlatego, że musisz oszacować swoje wcześniejsze. Nawet jeśli mogę powiedzieć „cóż, poziom z jest zdecydowanie nieprawdopodobny”, nie mogę przez całe życie powiedzieć ci, co powinno się stać poniżej z. O ile autorzy nie zaczną publikować swoich surowych danych w masie, moje najlepsze przypuszczenia dotyczące priorów są warunkowymi momentami zaczerpniętymi z poprzedniej pracy, które mogły, ale nie muszą być dopasowane w podobnych warunkach do tych, z którymi się mierzysz.
Zasadniczo techniki bayesowskie (przynajmniej na poziomie konceptualnym) są doskonałe, gdy masz silne założenie / pomysł / model i chcesz przenieść je do danych, a następnie zobaczyć, jak źle się zachowujesz. Ale często nie chcesz sprawdzić, czy masz rację co do jednego konkretnego modelu procesu biznesowego; bardziej prawdopodobne, że nie maszmodel i szukają informacji o tym, co zrobi Twój proces. Nie chcesz wypychać swoich wniosków, chcesz, aby Twoje dane wypychały twoje wnioski. Jeśli masz wystarczającą ilość danych, tak i tak się stanie, ale w takim razie po co zawracać sobie głowę uprzedzeniem? Być może jest to zbyt sceptyczne i niechętne do podejmowania ryzyka, ale nigdy nie słyszałem o optymistycznym biznesmenie, który również odniósł sukces. Nie ma sposobu na oszacowanie niepewności co do własnych przekonań i wolałbyś nie ryzykować zbytniej pewności siebie w niewłaściwej sprawie. Ustawiasz więc nieinformacyjny przeor, a przewaga znika.
Jest to interesujące w przypadku SPC, ponieważ w przeciwieństwie do, powiedzmy, marketingu cyfrowego, procesy biznesowe nie są wiecznie nieprzewidywalne. Mam wrażenie, że procesy biznesowe zwykle zmieniają się celowo i stopniowo. Oznacza to, że masz dużo czasu na zbudowanie dobrych, bezpiecznych priorów. Przypomnijmy jednak, że w priory chodzi o propagowanie niepewności. Poza subiektywnością Bayesianizm ma tę zaletę, że obiektywnie propaguje niepewność w głęboko zagnieżdżonych procesach generowania danych. Że dla mnie jest naprawdę co statystyki Bayesa jest dobre dla. A jeśli szukasz niezawodności swojego procesu znacznie przekraczającej granicę „istotności” 1 na 20, wydaje się, że chciałbyś uwzględnić jak największą niepewność.
Gdzie są modele Bayesa? Po pierwsze, są trudne do wdrożenia. Mówiąc wprost, mogę nauczyć OLS inżyniera mechanika w 15 minut i zlecić mu wykonanie regresji i testów t w Matlabie w innym 5. Aby użyć Bayesa, najpierw muszę zdecydować, jaki model pasuję, a następnie sprawdź, czy jest gotowa biblioteka w języku, który zna ktoś w mojej firmie. Jeśli nie, muszę użyć BŁĘDÓW lub Stana. Następnie muszę uruchomić symulacje, aby uzyskać nawet podstawową odpowiedź, a to zajmuje około 15 minut na 8-rdzeniowej maszynie i7. Tyle o szybkim prototypowaniu. Po drugie, zanim otrzymasz odpowiedź, spędziłeś dwie godziny na kodowaniu i czekaniu, tylko po to, aby uzyskać taki sam efekt, jaki mógłbyś uzyskać z częstymi przypadkowymi efektami ze klastrowymi standardowymi błędami. Może to wszystko jest zarozumiałe i błędne i wcale nie rozumiem SPC.
Porównałem Bayesianizm do bardzo wysokiej jakości noża szefa kuchni, garnka stockowego i patelni sautee ; Częstotliwość jest jak kuchnia pełna narzędzi As-Seen-On-TV, takich jak krajalnice do bananów i garnki do makaronu z otworami w pokrywie ułatwiającymi opróżnianie . Jeśli jesteś doświadczonym kucharzem z dużym doświadczeniem w kuchni - w rzeczy samej, we własnej kuchni merytorycznej, która jest czysta i uporządkowana, a wiesz, gdzie wszystko się znajduje - możesz robić niesamowite rzeczy za pomocą małego wyboru eleganckie, wysokiej jakości narzędzia. Możesz też użyć szeregu różnych małych narzędzi ad-hoc *, które wymagają zerowej umiejętności, aby przygotować prosty, naprawdę niezły posiłek, który ma kilka podstawowych smaków. Właśnie wróciłeś do domu z kopalni danych i jesteś spragniony rezultatów; którym jesteś kucharzem?
* Bayes jest równie ad hoc, ale mniej przejrzysty . Ile wina jest w twoim Coq au Vin? Nie mam pojęcia, wpatrujesz się w nią, bo jesteś zawodowcem. Lub, nie możesz odróżnić Pinot Grigio od Pinot Noir, ale pierwszy przepis na Epicurious mówi o użyciu 2 filiżanek czerwonego, więc to właśnie zrobisz. Który z nich jest bardziej „ad-hoc”?
źródło
Moim skromnym zdaniem statystyki bayesowskie mają pewne wady, które są sprzeczne z ich powszechnym stosowaniem (w ChPL, ale także w innych sektorach badawczych):
Trudniej jest uzyskać dane szacunkowe w porównaniu z ich częstym odpowiednikiem (najszersza część klas dotyczących statystyki przyjmuje podejście częste. Nawiasem mówiąc, interesujące byłoby zbadanie, czy jest to przyczyną, czy skutkiem ograniczonej popularności statystyki bayesowskiej ).
Bardzo często statystyki bayesowskie narzucają wybory dotyczące różnych sposobów radzenia sobie z tym samym problemem (np. Który z nich jest najlepszy?), A nie tylko kliknięcia i zobaczenia (w każdym razie nie należy zachęcać do tego podejścia w ramach częstych).
Statystyka bayesowska ma pewne tematy, którymi trudno zarządzać mniej niż bardzo doświadczeni statystycy (np. Niewłaściwi priory );
Wymaga to analizy wrażliwości (zwykle unikanej w ramach częstych) oraz wyjątków od niektórych tematów, takich jak analiza brakujących danych.
Ma tylko jedno (godne pochwały, bezpłatne oprogramowanie do pobrania) dostępne do obliczeń.
To zajmuje więcej czasu , aby być samodzielnym badacz z Bayesa niż z narzędziami częstościowym.
źródło
Jednym z powodów jest to, że statystyki bayesowskie zostały zamrożone z głównego nurtu aż do około 1990 roku. Kiedy studiowałem statystyki w latach siedemdziesiątych, była to prawie herezja (nie wszędzie, ale w większości programów dla absolwentów). Nie pomogło to, że większość interesujących problemów była trudna do rozwiązania. W rezultacie prawie wszyscy, którzy obecnie uczą statystyki (i przeglądają artykuły do czasopism oraz opracowują programy nauczania), są szkoleni jako częste osoby. Wszystko zaczęło się zmieniać około 1990 roku wraz z popularyzacją metod Markov Chain Monte Carlo (MCMC), które stopniowo trafiają do pakietów takich jak SAS i Stata. Osobiście uważam, że będą one powszechniejsze za 10 lat, chociaż w specjalistycznych aplikacjach (SPC) mogą nie mieć dużej przewagi.
Jedną z grup, która się budzi, czyni analizę bayesowską bardziej dostępną, jest grupa opracowująca pakiet STAN (mc-stan.org).
źródło