Dlaczego PCA maksymalizuje całkowitą wariancję projekcji?

11

Christopher Bishop pisze w swojej książce Pattern Recognition and Machine Learning dowód, że każdy kolejny główny składnik maksymalizuje wariancję projekcji do jednego wymiaru, po tym jak dane zostaną rzutowane do przestrzeni ortogonalnej na wcześniej wybrane komponenty. Inne pokazują podobne dowody.

Dowodzi to jednak tylko, że każdy kolejny element jest najlepszym rzutem na jeden wymiar, pod względem maksymalizacji wariancji. Dlaczego to oznacza, że ​​wariancja rzutu mówiącego o 5 wymiarach jest maksymalizowana przy wybieraniu pierwszych takich elementów?

michal
źródło
Czy mógłbyś powiedzieć nam dokładnie, co rozumie się pod pojęciem „wariancji” pięciowymiarowego zestawu danych wynikającego z rzutowania zestawu danych na pięć wymiarów? (Aby taka ilość podlegała maksymalizacji, musiałaby to być pojedyncza liczba.)
whuber
3
Bardzo dobra uwaga. Chris Bishop w swojej książce odnosi się do minimalizacji wariancji projekcji i nie jest jasne, co to znaczy dla więcej niż 1 wymiaru. Chciałbym dowiedzieć się, w jakim stopniu wariancja jest zminimalizowana i dlaczego taka procedura wspólnie ją minimalizuje.
michal
1
@ user123675: W swoim ostatnim komentarzu prawdopodobnie masz na myśli „maksymalizację”, a nie „minimalizację”.
ameba
Tak masz rację. Przepraszam!
michal

Odpowiedzi:

11

To, co rozumie się przez wariancję w kilku wymiarach („wariancja całkowita”), jest po prostu sumą wariancji w każdym wymiarze. Matematycznie jest to ślad macierzy kowariancji: ślad jest po prostu sumą wszystkich elementów ukośnych. Ta definicja ma różne ładne właściwości, np. Ślad jest niezmienny w ortogonalnych transformacjach liniowych, co oznacza, że ​​jeśli obrócisz osie współrzędnych, całkowita wariancja pozostanie taka sama.

W książce Bishopa (rozdział 12.1.1) udowodniono, że wiodący wektor własny macierzy kowariancji podaje kierunek maksymalnej wariancji. Drugi wektor własny podaje kierunek maksymalnej wariancji pod dodatkowym ograniczeniem, że powinien on być prostopadły do ​​pierwszego wektora własnego itp. (Wierzę, że stanowi to ćwiczenie 12.1). Jeśli celem jest maksymalizacja całkowitej wariancji w podprzestrzeni 2D, ta procedura jest zachłanną maksymalizacją: najpierw wybierz jedną oś, która maksymalizuje wariancję, a następnie drugą.

Twoje pytanie brzmi: dlaczego ta zachłanna procedura osiąga globalne maksimum?

Oto miły argument, który @whuber zasugerował w komentarzach. Najpierw wyrównajmy układ współrzędnych z osiami PCA. Macierz kowariancji staje się diagonalna: . Dla uproszczenia rozważymy ten sam przypadek 2D, tj. Jaka jest płaszczyzna o maksymalnej całkowitej wariancji? Chcemy udowodnić, że jest to płaszczyzna podana przez dwa pierwsze wektory podstawowe (o całkowitej wariancji ).Σ=diag(λi)λ1+λ2

Rozważ płaszczyznę rozpiętą na dwóch wektorach ortogonalnych i . Całkowita wariancja w tej płaszczyźnie wynosiJest to więc liniowa kombinacja wartości własnych ze współczynnikami, które wszystkie są dodatnie, nie przekraczają (patrz poniżej) i sumują się do . Jeśli tak, to prawie oczywiste jest, że maksimum osiągnięto w .uv

uΣu+vΣv=λiui2+λivi2=λi(ui2+vi2).
λi12λ1+λ2

Pozostaje tylko wykazać, że współczynniki nie mogą przekraczać . Zauważ, że , gdzie jest wektorem podstawowym. Wielkość ta jest kwadratową długością rzutu na płaszczyznę rozpiętą przez i . Dlatego musi być mniejsza niż kwadratowa długość która jest równa , QED.1uk2+vk2=(uk)2+(vk)2kkkuvk|k|2=1

Zobacz także odpowiedź @ kardynała na Jaka jest funkcja celu PCA? (kieruje się tą samą logiką).

ameba
źródło
1
(+1) Ale nie jest to intuicyjnie oczywiste, że dany zbiór portfeli różnych ilości gotówki (modelowanie nieujemne wartości własne), a stała liczba , że można podnieść, że wybierając najbogatsze portfele będą zmaksymalizować łącznie gotówkowy? Dowód, że ta intuicja jest prawidłowa, jest prawie trywialny: jeśli nie wziąłeś największego , możesz poprawić swoją sumę, wymieniając najmniejszą, którą wziąłeś na większą kwotę. kkk
whuber
@amoeba: jeśli celem jest maksymalizacja sumy wariancji, a nie wariancji sumy, nie ma powodu, aby druga projekcja była prostopadła do pierwszej.
Innuo
1
Przepraszam - myślałem, że już opracowałeś analizę do tego stopnia, że ​​rozpoznałeś, że całkowita wariancja w podprzestrzeni wymiarowej jest nieujemną liniową kombinacją wartości własnych, w której żaden ze współczynników nie może przekraczać i suma współczynników wynosik1k . (To kwestia prostego mnożenia macierzy - mnożniki Lagrange'a nie są potrzebne.) To prowadzi nas do metafory portfela. Zgadzam się, że należy przeprowadzić taką analizę.
whuber
1
@amoeba: Mam na myśli problem w bazie składającej się z wektorów własnych (jest to podstawa u i v, jeśli obliczymy ich wariancję przez pomnożenie przez ukośną macierz kowariancji). u i v ostatecznie okażą się nimi, ale myślę, że na etapie tego dowodu nie powinniśmy tego zakładać. Czy nie należy raczej argumentować, że gdyby w dowolnym momencie suma była większa niż 1, wówczas 2 wektory nie byłyby już ortogonalne, ponieważ podstawa jest ortogonalna, a każdy z wektorów daje co najwyżej 1? Ale z drugiej strony, dlaczego ograniczamy się do wektorów ortogonalnych u i v?
michal
1
@Heisenberg: Ach, rozumiem! Nie, oczywiście, że nie miałem tego na myśli! Ale teraz rozumiem, dlaczego to było mylące. Ponownie przepisałem ten ostatni dowód, aby pozbyć się kroku „wyboru podstawy”. Proszę zobaczyć moją edycję. Dziękuję Ci.
ameba
2

Jeśli masz nieskorelowanych zmiennych losowych posortowanych w malejącej kolejności ich wariancji i poproszono Cię o wybranie z nich w taki sposób, aby wariancja ich sumy była zmaksymalizowana, czy zgodziłbyś się, że chciwe podejście polegające na wybraniu pierwszego osiągnęłoby to?Nkk

Dane rzutowane na wektory własne macierzy kowariancji są zasadniczo nieskorelowanymi kolumnami danych i których wariancja jest równa odpowiednim wartościom własnym.N

Aby intuicja była bardziej zrozumiała, musimy powiązać maksymalizację wariancji z obliczeniem wektora własnego macierzy kowariancji o największej wartości własnej i powiązać rzut ortogonalny z usunięciem korelacji.

Druga zależność jest dla mnie jasna, ponieważ współczynnik korelacji między dwoma wektorami (średnia zero) jest proporcjonalny do ich iloczynu wewnętrznego.

Zależność między maksymalizacją wariancji a rozkładem własnym macierzy kowariancji jest następująca.

Załóżmy, żeD jest macierzą danych po wyśrodkowaniu kolumn. Musimy znaleźć kierunek maksymalnej wariancji. Dla dowolnego wektora jednostkowego wariancja po rzutowaniu wzdłuż wynosivv

E[(Dv)tDv]=vtE[DtD]v=vtCov(D)v

który jest maksymalizowany, jeżeli jest wektorem własnym odpowiadającym największej wartości własnej.vCov(D)

Innuo
źródło
Pierwotne pytanie brzmi raczej: wybierz ortogonalnych kombinacji liniowych (w przeciwieństwie do z nich) tak, aby suma ich wariancji była zmaksymalizowana. Czy nadal jest oczywiste, że osiąga to chciwe podejście do wybierania pierwszego ? kkk
ameba
Znalezienie ortogonalnych kombinacji liniowych, a następnie wybranie pierwszego najbardziej wariantu z nich, opisuje ten proces (luźno). Moja odpowiedź twierdzi tylko, że ortogonalność jest wystarczająca, aby chciwy proces osiągnął cel maksymalizacji całkowitej wariancji. Nk
Innuo
Nie jestem pewien, czy podążę za argumentem. Jak ważna jest ortogonalność? Jeśli masz zmiennych i musisz wybrać o największej wariancji całkowitej, powinieneś wybrać o największej wariancji (niezależnie od tego, czy są one skorelowane, czy nie). Nkk
ameba
Ach, rozumiem zamieszanie. W mojej odpowiedzi była literówka. Naprawiono teraz.
Innuo
Wydaje mi się, że mógłbyś tu coś zrobić, ale magiczny wygląd sumy wymaga wyjaśnienia. Jakie to ma znaczenie dla PCA, a nawet dla rozkładu widmowego?
whuber