Jakie są korzyści ze wskazania struktury kowariancji w GLM (zamiast traktowania wszystkich nie-diagonalnych wpisów w macierzy kowariancji jako zera)? Oprócz odzwierciedlenia tego, co wiemy o danych, robi to
- poprawić dobroć dopasowania?
- poprawić dokładność predykcyjną przetrzymywanych danych?
- pozwalają nam oszacować zakres kowariancji?
Jakie są koszty nałożenia struktury kowariancji? Czy to
- dodać komplikacje obliczeniowe dla algorytmów szacowania?
- zwiększyć liczbę szacowanych parametrów, również zwiększając AIC, BIC, DIC?
Czy możliwe jest empiryczne określenie właściwej struktury kowariancji, czy jest to coś, co zależy od twojej wiedzy na temat procesu generowania danych?
Jakieś koszty / korzyści, o których nie wspomniałem?
generalized-linear-model
covariance
Jack Tanner
źródło
źródło
Odpowiedzi:
Zasadniczo musisz określić strukturę kowariancji w GLM. Jeśli przez „zakładanie braku kowariancji” masz na myśli „wszystkie nie-diagonalne wpisy w macierzy kowariancji są zerowe”, to wszystko, co zrobiłeś, to założyć jedną bardzo specyficzną strukturę kowariancji. (Możesz być jeszcze bardziej szczegółowy, np. Zakładając, że wszystkie wariancje są równe.)
To jest naprawdę wariacja na temat: „Nie zgadzam się z żadną filozofią; jestem pragmatykiem”. - „Właśnie opisałeś filozofię, którą subskrybujesz”.
Jako taki, powiedziałbym, że zaletą myślenia o strukturze kowariancji jest szansa na zastosowanie modelu, który jest bardziej odpowiedni dla twoich danych. Tak jak powinieneś uwzględnić znane zależności funkcjonalne dla oczekiwanej wartości (lub średniej) swoich obserwacji, powinieneś uwzględnić każdą znaną strukturę w kowariancji.
I oczywiście „wadą” jest to, że trzeba się nad tym wszystkim zastanowić. Znacznie łatwiej jest po prostu użyć domyślnego ustawienia oprogramowania. Ale to trochę tak, jakby zawsze jeździć na pierwszym biegu, ponieważ samochód był na pierwszym biegu, kiedy go kupiłeś, i zrozumienie zmiany biegów wymaga wysiłku. Niepolecane.
źródło
Oto kolejna niepełna odpowiedź, która nawet nie dotyczy bezpośrednio GLM ... W moim bardzo ograniczonym doświadczeniu z modelowaniem równań strukturalnych (SEM) wybrałem kilka pomysłów, które, mam nadzieję, mogą coś wnieść do dyskusji. Pamiętaj, że przez cały czas mówię z (ograniczonego) doświadczenia z SEM, a nie GLM per se , i jestem dość nieświadomy, czy i gdzie to rozróżnienie może stać się ważne. Jestem bardziej użytkownikiem statystyk niż statystykami, więc nie jestem również pewien, czy te pomysły będą miały zastosowanie do wszystkich lub nawet większości danych; Przekonałem się tylko, że dotyczyły one większości moich.
Po pierwsze, chciałbym powtórzyć nacisk @ StephanKolassa na znaczenie modelowania tego, co już wiesz. Przyznajesz to na marginesie, ale myślę, że korzyści, o które pytasz, to korzyści z modelowania tego, co wiesz. Jako takie, w znaczący sposób odzwierciedlają fakt, że model wynikowy zawiera informacje o dodanej strukturze kowariancji.
W SEM odkryłem (poprzez ograniczone doświadczenie, a nie poprzez badania teoretyczne):
Korzyści
Modelowanie struktury kowariancji poprawia dobroć dopasowania (GoF), jeśli kowariancja jest znacznie silniejsza niż jej błąd standardowy (tj. Jeśli szlak symetryczny jest znaczący). Oznacza to, że zwykle nie poprawiasz GoF poprzez modelowanie korelacji bliskich zeru, a wielokoliniowość może powodować problemy dla GoF, ponieważ zwiększa standardowe błędy.
Nie próbowałem jeszcze trzymać danych do przewidzenia, ale moja intuicja jest taka, że ustalenie kowariancji do zera w twoim modelu jest analogiczne do przewidywania DV poprzez połączenie zestawu oddzielnych równań regresji liniowej z pojedynczą IV. W przeciwieństwie do tego podejścia, regresja wielokrotna uwzględnia kowariancję w IV przy tworzeniu modelu równań do przewidywania DV. Z pewnością poprawia to interpretowalność poprzez oddzielenie efektów bezpośrednich od efektów pośrednich, które występują całkowicie w ramach dołączonego zestawu IV. Szczerze mówiąc, nie jestem pewien, czy to koniecznie poprawia przewidywanie DV. Będąc użytkownikiem statystyk, a nie statystykiem, rzuciłem razem następującą funkcję testowania symulacji, aby dać niepełną odpowiedź (najwyraźniej „Tak, dokładność predykcyjna poprawia się, gdy model uwzględnia kowariancję IV”) w tym, miejmy nadzieję, analogicznym przypadku ...
Iterations
Sample.Size
z
x
y
x
z
y
x
z
wyprowadzone z:y.predicted
) i ...bizarro.y.predicted
).output
Iterations
x
y
z
output
simtestit()
str( )
psych
IV.r
) jest większy. Ponieważ prawdopodobnie znasz lepiej swoją funkcję GLM niż ja (co wcale nie jest), prawdopodobnie możesz zmienić tę funkcję lub skorzystać z podstawowego pomysłu, aby porównać prognozy GLM dla dowolnej liczby IV bez większego problemu. Zakładając, że okaże się (lub tak się stanie) w ten sam sposób, wydaje się, że podstawowa odpowiedź na twoje drugie pytanie brzmi prawdopodobnie tak, ale ile zależy od tego, jak silnie zachodzi zależność IV. Różnice w błędzie próbkowania między danymi przetrzymywanymi a danymi zastosowanymi do dopasowania modelu mogą przytłoczyć poprawę jego dokładności predykcyjnej w tym drugim zestawie danych, ponieważ znowu poprawa wydaje się niewielka, chyba że korelacje IV są silne (przynajmniej maksymalnie podstawowy przypadek tylko z dwoma kroplami).Określenie wolnej ścieżki kowariancji między IV w modelu oznacza, że funkcja dopasowania modelu poprosi o oszacowanie współczynnika tej ścieżki, który reprezentuje zakres kowariancji między IV. Jeśli twoja funkcja GLM pozwala ci określić model, w którym kowariancja między IV jest swobodnie szacowana, a nie ustalona na zero, to twój problem jest, mam nadzieję, prostą sprawą, aby dowiedzieć się, jak to zrobić i jak uzyskać funkcję ten szacunek. Jeśli twoja funkcja domyślnie ocenia kowariancje IV, twój problem upraszcza dalej tylko do tej drugiej sprawy (jak ma to miejsce w przypadku
lm( )
).Koszty
Tak, dowolne oszacowanie kowariancji między IV oznacza, że algorytm dopasowania modelu musi wykonać pewną pracę, aby oszacować współczynnik tej ścieżki. Brak określenia tej ścieżki w modelu zwykle oznacza ustalenie współczynnika na zero, co oznacza, że algorytm dopasowania modelu nie musi oszacować współczynnika. Szacowanie dodatkowych parametrów kowariancji oznacza, że cały model będzie wymagał więcej czasu na dopasowanie. W modelach, których oszacowanie zajmuje dużo czasu, dodatkowy czas może być znaczny, szczególnie jeśli masz dużo IV.
Tak, dowolnie szacowana struktura kowariancji implikuje oszacowania parametrów. Populacje mają parametry kowariancji, więc jeśli szacujesz kowariancje populacji, szacujesz parametry. Jeśli jednak twój model pasuje znacznie lepiej, ponieważ wybierasz oszacowanie nietrywialnej korelacji zamiast ustawiania jej na zero, prawdopodobnie możesz oczekiwać poprawy kryteriów informacyjnych Akaike i Bayesian, podobnie jak innych kryteriów zawierających GoF. Nie znam kryterium informacji o odchyleniach ( DIC, do którego się odwołujesz, prawda?), Ale sądząc po stronie Wikipedii , wydaje się również, że zawiera GoF i karę za złożoność modelu.
Dlatego GoF powinien po prostu wymagać proporcjonalnej poprawy większej niż złożoność modelu, aby poprawić DIC. Jeśli nie zdarzy się to ogólnie, kryteria takie jak te, które karają za złożoność modelu, pogorszą się, gdy oszacujesz więcej kowariancji IV. Może to być problem, jeśli na przykład twoje IV nie korelują, ale struktura kowariancji jest i tak swobodnie szacowana, ponieważ uważasz, że IV mogą być skorelowane, lub dlatego, że jest to domyślne ustawienie twojej funkcji. Jeśli masz wcześniejsze teoretyczne powody, aby założyć, że korelacja wynosi zero, i nie chcesz, aby Twój model przetestował to założenie, jest to jeden z przypadków, w których uzasadnione może być ustalenie ścieżki na zero. Jeśli twoja poprzednia teoria jest w przybliżeniu słuszna,
Nie wiem, z jaką funkcją pracujesz, ale po raz kolejny jestem pewien, że nie jestem z nią zaznajomiony, więc jestem pewien, że ta odpowiedź mogłaby zostać ulepszona, szczególnie moja odpowiedź na drugie pytanie o korzyść (z jednej strony matematyczne dowód tego, na co odpowiadam przez symulację na temat regresji wielokrotnej, jest prawdopodobnie gdzieś tam dostępny). Nie jestem nawet w ogóle zaznajomiony z GLM (zakładając, że masz na myśli uogólnione , a nie ogólne modelowanie liniowe, jak sugeruje tag), więc mam nadzieję, że ktoś skomentuje lub edytuje tę odpowiedź, jeśli różnice w SEM unieważnią moje odpowiedzi na twoje pytania w ogóle.
Niemniej jednak wydaje się, że czekaliśmy dziesięć miesięcy, aż guru się odezwą, więc jeśli to nie zmusi ich do zrobienia tego, prawdopodobnie będzie musiało to zrobić samo. Daj mi znać, jeśli masz na myśli określoną funkcję GLM, z którą chciałbyś, abym zadzierał w języku R. Mogę być w stanie dowiedzieć się, jak odpowiedzieć bardziej bezpośrednio na twoją aplikację, jeśli możesz podać interesującą funkcję GLM w R. Nie jestem też ekspertem w testowaniu symulacji, ale myślę, że twoje pozostałe cztery pytania mogłyby zostać przetestowane na sim (bardziej bezpośrednio) też.
źródło