Jakie są główne wyniki składowe (wyniki PC, wyniki PCA)?
pca
definition
vrish88
źródło
źródło
Odpowiedzi:
Najpierw zdefiniujmy wynik.
John, Mike i Kate otrzymują następujące odsetki egzaminów z matematyki, nauk ścisłych, języka angielskiego i muzyki w następujący sposób:
W tym przypadku jest w sumie 12 wyników. Każdy wynik reprezentuje wyniki egzaminu dla każdej osoby z określonego przedmiotu. Zatem wynik w tym przypadku jest po prostu reprezentacją miejsca przecięcia się wiersza i kolumny.
Teraz nieformalnie zdefiniujmy główny składnik.
Czy w powyższej tabeli możesz łatwo wykreślić dane na wykresie 2D? Nie, ponieważ istnieją cztery przedmioty (co oznacza cztery zmienne: matematyka, nauki ścisłe, angielski i muzyka), tj .:
Ale jak planowałbyś 4 tematy?
W tej chwili mamy cztery zmienne, z których każda reprezentuje tylko jeden podmiot. Metodą tego może być w jakiś sposób połączenie badanych w być może tylko dwie nowe zmienne, które możemy następnie wykreślić. Jest to znane jako skalowanie wielowymiarowe .
Analiza głównego elementu jest formą wielowymiarowego skalowania. Jest to liniowa transformacja zmiennych w przestrzeń o niższych wymiarach, która zachowuje maksymalną ilość informacji o zmiennych. Na przykład oznaczałoby to, że moglibyśmy spojrzeć na rodzaje przedmiotów, do których każdy uczeń może być bardziej odpowiedni.
Główny składnik jest zatem kombinacją pierwotnych zmiennych po transformacji liniowej. W R jest to:
Który da ci coś takiego (pierwsze dwa główne składniki tylko dla uproszczenia):
Pierwsza kolumna pokazuje współczynniki kombinacji liniowej, która definiuje główny składnik # 1, a druga kolumna pokazuje współczynniki dla głównego składnika # 2.
Co to jest główny wynik komponentu?
Jest to wynik z tabeli na końcu tego postu (patrz poniżej).
Powyższy wynik z R oznacza, że możemy teraz wykreślić punktację każdej osoby na wszystkich obiektach na wykresie 2D w następujący sposób. Najpierw musimy wyśrodkować oryginalne zmienne, co oznacza, że kolumna odejmowania oznacza:
A następnie do postaci liniowej kombinacji, aby uzyskać PC1 i PC2 wyniki :
Co upraszcza:
W powyższej tabeli znajduje się sześć głównych ocen składowych . Możesz teraz wykreślić wyniki na wykresie 2D, aby poznać rodzaj przedmiotów, do których każdy uczeń może być bardziej odpowiedni.
Ten sam wynik można uzyskać w R, wpisując
prcomp(DF, scale = FALSE)$x
.EDYCJA 1: Hmm, prawdopodobnie mógłbym wymyślić lepszy przykład, i jest w tym coś więcej niż to, co tu umieściłem, ale mam nadzieję, że masz pomysł.
EDYCJA 2: pełne podziękowania dla @drpaulbrewer za komentarz w ulepszeniu tej odpowiedzi.
źródło
apply(dtf, 1, function(x) sum(scale(x)))
prcomp
wyników. Wcześniej nie.Analiza głównego składnika (PCA) to jedno z popularnych metod analizy wariancji w przypadku danych wielowymiarowych. Masz losowe zmienne X1, X2, ... Xn, które wszystkie są skorelowane (dodatnio lub ujemnie) w różnym stopniu i chcesz lepiej zrozumieć, co się dzieje. PCA może pomóc.
PCA daje ci zmianę zmiennej na Y1, Y2, ..., Yn (tj. Ta sama liczba zmiennych), które są liniowymi kombinacjami Xs. Na przykład możesz mieć Y1 = 2,1 X1 - 1,76 X2 + 0,2 X3 ...
Ys to miła właściwość, że każdy z nich ma zerową korelację ze sobą. Co więcej, otrzymujesz je w malejącej kolejności wariancji. Tak więc Y1 „wyjaśnia” dużą część wariancji pierwotnych zmiennych, Y2 nieco mniej i tak dalej. Zwykle po kilku pierwszych Y zmienne stają się nieco bez znaczenia. Wynik PCA dla każdego z Xi jest po prostu jego współczynnikiem w każdym z Y. W moim wcześniejszym przykładzie wynik dla X2 w pierwszym głównym składniku (Y1) wynosi 1,76.
PCA robi tę magię, obliczając wektory własne macierzy kowariancji.
Aby dać konkretny przykład, wyobraź sobie, że X1, ... X10 to zmiany w rentownościach obligacji skarbowych na 1 rok, 2 lata, ..., 10 lat w pewnym okresie czasu. Podczas obliczania PCA zazwyczaj okazuje się, że pierwszy składnik ma wyniki dla każdego wiązania tego samego znaku i mniej więcej tego samego znaku. To mówi ci, że większość wariancji rentowności obligacji pochodzi ze wszystkiego poruszającego się w ten sam sposób: „równoległe przesunięcia” w górę lub w dół. Drugi komponent zazwyczaj wykazuje „wygięcie” i „spłaszczenie” krzywej i ma przeciwne znaki dla X1 i X10.
źródło
PC1 > PC2 > ... > PCn
a suma ich wariancji jest równa sumie wariancji początkowego zestawu zmiennych, ponieważ PCA oblicza się na macierzy kowariancji, tzn. Zmienne są standaryzowane (SD = 1, VAR = 1).Załóżmy, że masz chmurę N punktów, powiedzmy, w 3D (które mogą być wymienione w tablicy 100 x 3). Następnie analiza głównych składników (PCA) dopasowuje do danych dowolnie zorientowaną elipsoidę. Główną punktacją składową jest długość średnic elipsoidy.
W kierunku, w którym średnica jest duża, dane bardzo się różnią, natomiast w kierunku, w którym średnica jest mała, dane różnią się nieco. Jeśli chcesz rzutować dane Nd na dwuwymiarowy wykres rozproszenia, rysuj je wzdłuż dwóch największych głównych składników, ponieważ dzięki takiemu podejściu wyświetlasz większość wariancji danych.
źródło
Lubię myśleć o punktacji składowych głównych jako „zasadniczo bez znaczenia”, dopóki nie nadasz im jakiegoś znaczenia. Interpretowanie wyników komputerowych w kategoriach „rzeczywistości” to trudna sprawa - i naprawdę nie ma wyjątkowego sposobu, aby to zrobić. To zależy od tego, co wiesz o poszczególnych zmiennych wchodzących w skład PCA i od tego, jak odnoszą się one do siebie pod względem interpretacji.
Jeśli chodzi o matematykę, lubię interpretować wyniki PC jako współrzędne każdego punktu w odniesieniu do głównych osi składowych. Więc w surowych zmiennych maszxi =(x1i,x2i,…,xpi) x1 x1i zi =(z1i,z2i,…,zpi)=A(xi−x¯¯¯) A p×p x¯¯¯
Możesz więc pomyśleć o wektorach własnych jako o opisie „linii prostych” opisujących komputery. Następnie oceny głównych składowych opisują, gdzie każdy punkt danych leży na każdej linii prostej, w stosunku do „centrum” danych. Możesz również pomyśleć o wynikach PC w połączeniu z wagami / wektorami własnymi jako serią prognoz rangi 1 dla każdego z oryginalnych punktów danych, które mają postać:
źródło
Głównymi składnikami macierzy danych są pary wektor własny-wartość własna jej macierzy wariancji-kowariancji. Zasadniczo są to elementy wariancji związane z dekoracją. Każda z nich jest liniową kombinacją zmiennych do obserwacji - załóżmy, że mierzysz w, x, y, z na każdym z wielu badanych. Twój pierwszy komputer może być czymś podobnym
0,5 w + 4x + 5 lat - 1,5z
Ładunki (wektory własne) są tutaj (0,5, 4, 5, -1,5). Wynik (wartość własna) dla każdej obserwacji jest wartością wynikową po zastąpieniu obserwowanego (w, x, y, z) i obliczeniu sumy.
Jest to przydatne, gdy rzutujesz rzeczy na ich główne elementy (na przykład wykrywanie wartości odstających), ponieważ po prostu wykreślasz wyniki dla każdego z nich, tak jak w przypadku innych danych. To może ujawnić wiele na temat twoich danych, jeśli duża wariancja jest skorelowana (== na kilku pierwszych komputerach).
źródło
Wyjście z R na PCA (fałszywy przykład) wygląda następująco. PC1, PC2 ... są głównymi składnikami 1, 2 ... Poniższy przykład pokazuje tylko pierwszych 8 głównych składników (spośród 17). Możesz także wyodrębnić inne elementy z PCA, takie jak ładunki i wyniki.
źródło
Główne wyniki składowe to grupa wyników, które są uzyskiwane zgodnie z zasadą analizy składowych (PCA). W PCA relacje między grupą wyników są analizowane w taki sposób, że tworzona jest równa liczba nowych „urojonych” zmiennych (aka składowych zasad). Pierwsza z tych nowych zmiennych urojonych jest maksymalnie skorelowana ze wszystkimi oryginalnymi grupami zmiennych. Następny jest nieco mniej skorelowany i tak dalej, do tego stopnia, że jeśli użyjesz wszystkich głównych składowych wyników do przewidzenia dowolnej zmiennej z początkowej grupy, będziesz w stanie wyjaśnić całą jej wariancję. Sposób, w jaki postępuje PCA, jest złożony i ma pewne ograniczenia. Wśród nich jest ograniczenie, że korelacja między dowolnymi dwoma głównymi składnikami (tj. Zmiennymi urojonymi) wynosi zero; więc nie robi
źródło