Bootstrapping jest wykonywany, aby uzyskać bardziej solidny obraz rozkładu próbkowania niż ten, który zakłada teoria dużych próbek. Podczas bootstrapu nie ma praktycznie żadnych ograniczeń co do liczby pobieranych `butów '; w rzeczywistości otrzymujesz lepsze przybliżenie rozkładu próbkowania, im więcej pobierzesz próbek. Oczywiste jest, aby używać bootsamples, choć nie ma nic magicznego tego numeru. Co więcej, nie uruchamiasz testu na bootamples; masz oszacowany rozkład próbkowania - użyj go bezpośrednio. Oto algorytm:B = 10 , 000
- weź próbkę jednego zestawu danych, próbkując obserwacji rozruchu z zamiennikiem. [W odniesieniu do poniższych komentarzy, jednym istotnym pytaniem jest, co stanowi prawidłową „obserwację rozruchu”, którą należy zastosować w przypadku twojego przykładowego buta. W rzeczywistości istnieje kilka uzasadnionych podejść; Wspomnę o dwóch, które są solidne i pozwalają na odzwierciedlenie struktury danych: Gdy masz dane obserwacyjne (tj. Dane zostały próbkowane we wszystkich wymiarach, obserwacją rozruchową może być uporządkowana liczba-krotka (np. Wiersz z zestawu danych) .Na przykład, jeśli masz jedną zmienną predykcyjną i jedną zmienną odpowiedzi, próbujesz n 1 ( x , y )n1n1 ( x , y)Zamówiłem parę. Z drugiej strony, podczas pracy z danymi eksperymentalnymi, wartości zmiennych predykcyjnych nie były próbkowane, ale jednostki eksperymentalne zostały przypisane do zamierzonych poziomów każdej zmiennej predykcyjnej. W takim przypadku możesz próbkować y wartości z każdego poziomu j zmiennej predyktora, a następnie sparować te y z odpowiednią wartością tego poziomu predyktora. W ten sposób nie próbujesz ponad X. ]n1 j yjotyX
- pasowały do modelu regresji i przechowywać oszacowanie nachylenia (nazywają to p 1 )β^1
- zrób próbkę innego zestawu danych, próbkując obserwacji rozruchu z wymianąn2)
- dopasować inny model regresji i przechowywać oszacowania nachylenie (nazwać p 2 )β^2)
- tworzą statystyki z dwóch oszacowań (propozycja: wykorzystanie różnicy nachylenia β 1 - β 2 )β^1- β^2)
- przechowuj statystyki i zrzuć inne informacje, aby nie marnować pamięci
- Powtórzyć kroki 1 - 6, razyB = 10 , 000
- posortuj bootstrapped rozkład próbkowania różnic nachylenia
- obliczyć% bsd, który pokrywa się z 0 (w zależności od tego, która wartość jest mniejsza, prawy ogon% lub lewy ogon%)
- pomnóż ten odsetek przez 2
Logika tego algorytmu jako testu statystycznego jest zasadniczo podobna do klasycznych testów (np. Testów t), ale nie zakładasz, że dane lub wynikające z nich rozkłady próbkowania mają jakiś szczególny rozkład. (Na przykład, nie zakładasz normalności.) Podstawowym założeniem, które przyjmujesz, jest to, że twoje dane są reprezentatywne dla populacji, z której próbujesz / chcesz uogólnić. Oznacza to, że rozkład próby jest podobny do rozkładu populacji. Pamiętaj, że jeśli twoje dane nie są powiązane z populacją, którą jesteś zainteresowany, nie masz szczęścia.
Niektóre osoby martwią się np. Użyciem modelu regresji do określenia nachylenia, jeśli nie chcesz zakładać normalności. Ta obawa jest jednak błędna. Twierdzenie Gaussa-Markowa mówi nam, że oszacowanie jest obiektywne (tzn. Wyśrodkowane na prawdziwej wartości), więc jest w porządku. Brak normalności oznacza po prostu, że prawdziwy rozkład próbkowania może różnić się od teoretycznie założonego, a zatem wartości p są nieprawidłowe. Procedura ładowania początkowego pozwala rozwiązać ten problem.
Dwa inne kwestie dotyczące ładowania początkowego: Jeśli spełnione są klasyczne założenia, ładowanie początkowe jest mniej wydajne (tj. Ma mniejszą moc) niż test parametryczny. Po drugie, ładowanie początkowe działa najlepiej, gdy eksplorujesz w pobliżu środka rozkładu: środki i mediany są dobre, kwartyle nie są tak dobre, ładowanie początkowe min. Lub maks. Niekoniecznie. Jeśli chodzi o pierwszy punkt, może nie być konieczne rozpoczęcie ładowania w twojej sytuacji; w odniesieniu do drugiego punktu, ładowanie stoku jest idealnie w porządku.
Jeśli masz korelację między warunkami błędu, być może będziesz musiał nieco zmienić tę procedurę, więc odpisz, jeśli tak jest.
Możesz uogólnić to podejście do pozornie niepowiązanych ram regresji (SUR). To podejście nadal pozwala, aby współczynniki przechwytywania i nachylenia były dowolnie różne w dwóch zestawach danych.
źródło
Robienie wszystkiego w ramach jednej regresji jest zgrabne, a ważne jest założenie niezależności. Jednak obliczanie szacunków punktowych w ten sposób nie wymaga stałej wariancji. Wypróbuj ten kod R;
Tak czy inaczej otrzymujemy tę samą ocenę punktową. Szacunki standardowego błędu mogą wymagać stałej wariancji (w zależności od tego, którego używasz), ale rozważane tutaj ładowanie początkowe nie wykorzystuje szacowanych standardowych błędów.
źródło