Jakie dziedziny statystyki zostały znacząco zrewolucjonizowane w ciągu ostatnich 50 lat? Na przykład około 40 lat temu Akaike wraz z kolegami zrewolucjonizował obszar dyskryminacji modeli statystycznych. Około 10 lat temu Hyndman wraz z kolegami zrewolucjonizował obszar wygładzania wykładniczego. Około XX lat temu ...
Jak mogę kontynuować listę, podając lata i nazwiska? Przez statystyki rozumiem wszystkie cztery typy z przemówienia prezydenta Bartłomieja z 1995 r., Większe i mniejsze statystyki Chambersa razem, jak w niedawnym przemówieniu Prezydenta Handa na temat „Nowoczesnej statystyki” i tak dalej - cokolwiek profesjonalnie istotnego.
Odpowiedzi:
Przychodzi mi na myśl praca Efrona nad Bootstrap .
źródło
Zastosowanie statystyki bayesowskiej metodami Monte Carlo.
źródło
Kolejnymi potencjalnymi kandydatami są metody zbiorcze, takie jak wzmacnianie, pakowanie itd.
źródło
W 1960 r. Większość osób wykonujących statystyki obliczało za pomocą czterofunkcyjnego kalkulatora ręcznego lub suwaka lub ręcznie; komputery mainframe dopiero zaczynały uruchamiać niektóre programy w Algolu i Fortranie; graficzne urządzenia wyjściowe były rzadkie i surowe. Z powodu tych ograniczeń analiza Bayesa została uznana za niezwykle trudną ze względu na wymagane obliczenia. Bazy danych były zarządzane na kartach dziurkowanych, a napędy taśm komputerowe ograniczone do kilku megabajtów. Edukacja statystyczna początkowo koncentrowała się na formułach uczenia się do testów t i ANOVA. Praktyka statystyczna zwykle nie wykraczała poza takie rutynowe testowanie hipotez (chociaż niektóre błyskotliwe umysły dopiero zaczęły wykorzystywać komputery do głębszej analizy, czego przykładem jest na przykład książka Mostellera i Wallace'a na temat artykułów federalistycznych).
Opowiedziałem tę dobrze znaną historię jako przypomnienie, że wszystkie statystyki przeszły rewolucję ze względu na wzrost i rozprzestrzenianie się mocy obliczeniowej w ciągu ostatniego półwiecza, rewolucję, która umożliwiła prawie każdą inną innowację w statystykach w tym czasie (z zauważalny wyjątek od ołówkowych i papierowych metod EDA Tukeya, jak już zauważył Thylacoleo).
źródło
Naprawdę dziwny pomysł Johna Tukeya: eksploracyjna analiza danych. http://en.wikipedia.org/wiki/Exploratory_data_analysis
źródło
Uogólnione modele liniowe ze względu na niedawno zmarłego Johna Neldera i Roberta Wedderburn.
źródło
źródło
Odbyła się wielka dyskusja na temat metaoptimize zatytułowana „ Najbardziej wpływowe pomysły 1995–2005 ”.
Wspomniałem tam i powtórzę tutaj, to „rewolucja” w koncepcji wielu porównań, w szczególności przejście od stosowania metod FWE do metod FDR do testowania bardzo wielu hipotez (jak w mikromacierzy lub fMRI i tak dalej)
Oto jeden z pierwszych artykułów, który wprowadził to pojęcie do społeczności naukowej: Benjamini, Yoav; Hochberg, Yosef (1995). „Kontrolowanie wskaźnika fałszywych odkryć: praktyczne i skuteczne podejście do wielu testów”. Journal of the Royal Statistics Society
źródło
Analiza przeżycia proporcjonalnych zagrożeń Coxa: http://en.wikipedia.org/wiki/Cox_proportional_hazards_model
źródło
Podejście Box-Jenkins do modelowania szeregów czasowych: modele ARIMA itp.
http://en.wikipedia.org/wiki/Box-Jenkins
źródło
Stworzenie tej strony ;-)
źródło