Mam na myśli praktyki, które nadal utrzymują swoją obecność, mimo że problemy (zwykle obliczeniowe), z którymi zostały zaprojektowane, zostały w większości rozwiązane.
Na przykład wymyślono korektę ciągłości Yatesa w celu przybliżenia dokładnego testu Fishera za pomocą testu , ale nie jest to już praktyczne, ponieważ oprogramowanie może teraz obsługiwać test Fishera nawet przy dużych próbkach (wiem, że może to nie być dobry przykład „ utrzymywanie swojej obecności ", ponieważ podręczniki, takie jak Kategoryczna analiza danych Agresti , często przyznają, że korekta Yatesa" nie jest już potrzebna ").
Jakie są inne przykłady takich praktyk?
references
philosophical
Francis
źródło
źródło
Odpowiedzi:
Mocno argumentuje się, że stosowanie progów istotności progowej, takich jak lub jest historycznym kacem z okresu, w którym większość badaczy polegała na wcześniej obliczonych tabelach wartości krytycznych. Teraz dobre oprogramowanie da wartości bezpośrednio. Rzeczywiście, dobre oprogramowanie pozwala dostosować analizę i nie zależy od testów podręczników.P = 0,01 P.P=0.05 P=0.01 P
Jest to kontrowersyjne, choćby dlatego, że niektóre problemy z testowaniem istotności wymagają decyzji, tak jak w przypadku kontroli jakości, w której przyjęcie lub odrzucenie partii jest konieczną decyzją, a następnie działanie w obu przypadkach. Ale nawet tam progi, które należy zastosować, powinny wynikać z analizy ryzyka, a nie zależeć od tradycji. I często w nauce analiza wskazań ilościowych jest bardziej odpowiednia niż decyzje: myślenie ilościowe oznacza uwagę na wielkości wartości a nie tylko na surową dychotomię, znaczącą w porównaniu z nieistotną.P
Zaznaczę, że tutaj dotykam zawiłej i kontrowersyjnej kwestii, która jest przedmiotem całej książki i prawdopodobnie tysięcy artykułów, ale wydaje się to dobrym przykładem dla tego wątku.
źródło
Jedną z metod, którą moim zdaniem wielu odwiedzających tę stronę zgodzi się ze mną, jest regresja stopniowa. Nadal jest to wykonywane przez cały czas, ale nie musisz daleko szukać ekspertów w tej witrynie, którzy potępiają jego użycie. Metoda taka jak LASSO jest bardzo preferowana.
źródło
Moim zdaniem przynajmniej w (stosowanej) ekonometrii coraz bardziej normą jest stosowanie solidnej lub empirycznej macierzy kowariancji zamiast „anachronicznej praktyki” polegania (asymptotycznie) na poprawnym określeniu macierzy kowariancji. Nie jest to oczywiście bez kontrowersji: zobacz niektóre odpowiedzi, które zamieściłem tutaj w CrossValidated, ale z pewnością jest to wyraźny trend.
Przykłady obejmują błąd standardowy odporny na heteroscedastyczność ( błędy standardowe Eicker-Huber-White). Niektórzy badacze, tacy jak Angrist i Pischke, najwyraźniej zalecają zawsze stosowanie standardowego błędu odpornego na heteroscedastyczność zamiast procedury „anachronicznej”, aby używać normalnego standardowego błędu jako domyślnego i sprawdzać, czy uzasadnione jest założenie .E[uu′]=σ2In
Inne przykłady obejmują dane panelowe, Imbens i Wooldridge piszą na przykład w swoich slajdach wykładowych argumentują przeciwko używaniu macierzy kowariancji wariancji efektów losowych (domyślnie zakładając pewne błędy w specyfikacji komponentu wariancji jako domyślne):
Używając uogólnionych modeli liniowych (dla rozkładów należących do rodziny wykładniczej) często zaleca się stosowanie zawsze tak zwanego estymatora wielowarstwowego zamiast polegania na prawidłowych założeniach dystrybucyjnych (tutaj praktyka anachroniczna): patrz na przykład ta odpowiedź lub odniesienie Camerona zliczać dane, ponieważ oszacowanie prawdopodobieństwa pseudo-maksymalnego może być dość elastyczne w przypadku błędnej specyfikacji (np. użycie Poissona, jeśli dwumian ujemny byłby poprawny).
Greene pisze w swoim podręczniku w rozdziale 14 (dostępnym na swojej stronie internetowej) na przykład z uwagą krytyczną i bardziej szczegółowo opisuje zalety i wady tej praktyki:
źródło
źródło
Większość praktyk anachronicznych wynika prawdopodobnie ze sposobu, w jaki naucza się statystyki oraz z faktu, że analizy są prowadzone przez ogromną liczbę osób, które odbyły tylko kilka podstawowych zajęć. Często uczymy zestawu standardowych idei i procedur statystycznych, ponieważ tworzą one logiczną sekwencję rosnącego konceptualnego wyrafinowania, która ma sens pedagogiczny (por. Jak możemy poznać wariancję populacji? ). Sam jestem tego winny: od czasu do czasu uczę statystyk 101 i 102 i ciągle mówię: „istnieje lepszy sposób, aby to zrobić, ale to nie wchodzi w zakres tej klasy”. Dla tych uczniów, którzy nie wychodzą poza sekwencję wprowadzającą (prawie wszyscy), pozostają im podstawowe, ale zastąpione strategie.
Na przykład w przypadku statystyki 101 prawdopodobnie najpowszechniejszą praktyką anachroniczną jest przetestowanie pewnych założeń, a następnie przeprowadzenie tradycyjnej analizy statystycznej, ponieważ test nie był znaczący. Bardziej nowoczesnym / zaawansowanym / możliwym do obrony podejściem byłoby od samego początku zastosowanie metody zgodnej z tym założeniem. Niektóre referencje, aby uzyskać więcej informacji:
W przypadku statystyk 102 przykładów dowolna liczba praktyk modelowania została przestarzała:
Chodzi o to, że ludzie robią to, czego nauczono najpierw na lekcji wprowadzającej, ponieważ po prostu nie znają bardziej zaawansowanych i odpowiednich metod.
źródło
Bardzo interesującym przykładem są jednostkowe testy korzeniowe w ekonometrii. Chociaż istnieje wiele opcji testowania względem lub dla pierwiastka jednostkowego w wielomianu opóźniającym szeregu czasowego (np. (Augmented) Dickey Fuller Test lub test KPSS), problem można całkowicie obejść, gdy używa się analizy bayesowskiej . Sims zwrócił na to uwagę w swoim prowokującym artykule zatytułowanym Understanding Unit Rooters: A Helicopter Tour z 1991 roku.
Testy na pierwiastek jednostkowy pozostają aktualne i stosowane w ekonometrii. Podczas gdy ja osobiście przypisywałbym to głównie ludziom niechętnie dostosowującym się do praktyk bayesowskich, wielu konserwatywnych ekonometrów broni praktyki jednostkowych testów korzeniowych, mówiąc, że bayesowski pogląd na świat zaprzecza założeniu badań ekonometrycznych. (Oznacza to, że ekonomiści uważają świat za miejsce o ustalonych parametrach, a nie losowych parametrach, którymi rządzi jakiś hiperparametr).
źródło
Uiszczenie opłat licencyjnych za wysokiej jakości systemy oprogramowania statystycznego. #R
źródło
Nauczanie / przeprowadzanie dwustronnych testów różnic bez jednoczesnego testowania równoważności w dziedzinie częstych testów hipotez jest głębokim zaangażowaniem w potwierdzanie stronniczości .
Istnieje pewien niuans, że odpowiednia analiza mocy z przemyślaną definicją wielkości efektu może temu zapobiec i zapewnić mniej więcej takie same wnioski, ale (a) analizy mocy są tak często ignorowane w prezentowaniu wyników, i (b) I które nigdy nie widział dla analizy mocy, na przykład, każdy szacowany współczynnik dla każdej zmiennej w regresji wielokrotnej, ale łatwo jest zrobić dla połączonych testów odmienności i testów dla równoważności (tj testy istotności).
źródło
Użycie ujemnego dwumianowego modelu zamiast (solidnego) modelu Poissona do zidentyfikowania interesującego parametru w zmiennej zliczającej, tylko dlatego, że występuje nadmierna dyspersja?
Zobacz jako odniesienie: https://blog.stata.com/2011/08/22/use-poisson-rather-than-regress-tell-a-friend/
Dowód, że Poisson jest bardziej niezawodny w przypadku efektów stałych, jest dość nowy, ponieważ w nawiązaniu do: Wooldridge, JM, „Bezszeregowe oszacowanie niektórych nieliniowych modeli danych panelowych”, Journal of Econometrics 90 (1999), 77–97.
źródło
Oto kilka anachronizmów:
Neoplatońskie założenie, że istnieje tylko jedna „prawdziwa” populacja w teoretycznym eterze, która jest wieczna, stała i nieporuszona, w stosunku do której można ocenić nasze niedoskonałe próbki, w niewielkim stopniu przyczynia się do rozwoju nauki i wiedzy.
Redukcjonizm związany z mandatami takimi jak brzytwa Ockhama jest niezgodny z duchem czasu. LUB można podsumować w następujący sposób: „Spośród konkurujących hipotez należy wybrać te o najmniejszej liczbie założeń”. Alternatywy obejmują zasadę wielokrotnych wyjaśnień Epikura , która z grubsza stwierdza: „Jeśli więcej niż jedna teoria jest zgodna z danymi, zachowaj je wszystkie”.
Cały system wzajemnej oceny rozpaczliwie potrzebuje przeglądu.
* Edytować *
Przy ogromnych danych zawierających dziesiątki milionów funkcji nie jest już potrzebna zmienna faza selekcji.
Ponadto statystyki wnioskowania są bez znaczenia.
źródło