W ustawieniach regresji jednowymiarowej próbujemy modelować
gdzie wektor obserwacji i macierz projektowa z predyktorami. Rozwiązaniem jest \ beta_0 = (X ^ TX) ^ {- 1} Xy . n X ∈ R n × m m β 0 = ( X T X ) - 1 X y
W ustawieniach regresji wielowymiarowej próbujemy modelować
gdzie jest macierzą obserwacji i różnych ukrytych zmiennych. Rozwiązaniem jest .
Moje pytanie brzmi: w jaki sposób jest to, że różni się od wykonywania inny jednowymiarowego regresji liniowej? Czytam tutaj, że w tym drugim przypadku bierzemy pod uwagę korelację między zmiennymi zależnymi, ale nie widzę jej z matematyki.
Odpowiedzi:
W ustawieniu klasycznej wielowymiarowej regresji liniowej mamy model:
gdzie reprezentuje zmienne niezależne, reprezentuje zmienne wielokrotne odpowiedzi, a to iid termin szum Gaussa. Hałas ma zerową średnią i może być skorelowany ze zmiennymi odpowiedzi. Rozwiązanie maksymalnego prawdopodobieństwa dla wag jest równoważne rozwiązaniu metodą najmniejszych kwadratów (niezależnie od korelacji hałasu) [1] [2]:X Y ϵ
Jest to równoważne niezależnemu rozwiązaniu osobnego problemu regresji dla każdej zmiennej odpowiedzi. Można to zaobserwować na podstawie faktu, że tą kolumnę (zawierającą wagi dla tej zmiennej wyjściowej) można uzyskać mnożąc przez kolumna (zawierająca wartości tej zmiennej odpowiedzi).ja β^ ja ( XT.X)- 1XT. ja Y ja
Jednak wielowymiarowa regresja liniowa różni się od osobnego rozwiązywania indywidualnych problemów regresji, ponieważ procedury wnioskowania statystycznego uwzględniają korelacje między zmiennymi wielokrotnych odpowiedzi (np. Patrz [2], [3], [4]). Na przykład macierz kowariancji szumu pojawia się w rozkładach próbkowania, statystykach testów i szacunkach przedziałów.
Kolejna różnica pojawia się, jeśli pozwolimy każdej zmiennej odpowiedzi mieć swój własny zestaw zmiennych towarzyszących:
gdzie reprezentuje tą zmienną odpowiedzi, a i reprezentują odpowiadający im zestaw zmiennych towarzyszących i składnika szumowego. Jak wyżej, warunki hałasu mogą być skorelowane między zmiennymi odpowiedzi. W tym ustawieniu istnieją estymatory, które są bardziej wydajne niż najmniejszych kwadratów i nie można ich zredukować do rozwiązywania osobnych problemów z regresją dla każdej zmiennej odpowiedzi. Na przykład patrz [1]. i X i ϵ iYja ja Xja ϵja
Bibliografia
źródło