Wiele podręczników statystycznych zapewnia intuicyjną ilustrację tego, czym są wektory własne macierzy kowariancji:
Wektory u i z tworzą wektory własne (cóż, osie własne). To ma sens. Ale jedną rzeczą, która mnie myli, jest to, że wydobywamy wektory własne z macierzy korelacji , a nie z surowych danych. Ponadto surowe zestawy danych, które są całkiem różne, mogą mieć identyczne macierze korelacji. Na przykład następujące oba mają macierze korelacji:
Jako takie mają wektory własne skierowane w tym samym kierunku:
Ale jeśli zastosujesz tę samą wizualną interpretację kierunków, w których wektory własne znajdują się w surowych danych, otrzymasz wektory wskazujące w różnych kierunkach.
Czy ktoś może mi powiedzieć, gdzie popełniłem błąd?
Druga edycja : jeśli mogę być tak odważna, z doskonałymi odpowiedziami poniżej udało mi się zrozumieć zamieszanie i zilustrować je.
Wyjaśnienie wizualne jest zgodne z faktem, że wektory własne wyodrębnione z macierzy kowariancji są różne.
Kowariancje i wektory własne (czerwony):
Kowariancje i wektory własne (niebieski):
Macierze korelacji odzwierciedlają macierze kowariancji znormalizowanych zmiennych. Kontrola wzrokowa standardowych zmiennych pokazuje, dlaczego w moim przykładzie wyodrębniono identyczne wektory własne:
źródło
[PCA]
tag. Jeśli chcesz ponownie skupić się na pytaniu lub zadać nowe (powiązane) pytanie i link do tego, to wydaje się być w porządku, ale myślę, że to pytanie jest wystarczająco PCA, aby zasługiwać na tag.Odpowiedzi:
Nie musisz robić PCA ponad macierzą korelacji; możesz także rozłożyć macierz kowariancji. Zauważ, że zazwyczaj dają one różne rozwiązania. (Aby uzyskać więcej informacji na ten temat, patrz: PCA na temat korelacji lub kowariancji? )
Ponownie, jeśli wykonasz PCA z tymi grupami przy użyciu macierzy kowariancji, uzyskasz inny wynik niż w przypadku użycia macierzy korelacji.
źródło