Wydaje się, że wiele używanych przeze mnie pakietów statystycznych łączy te dwa pojęcia razem. Zastanawiam się jednak, czy istnieją inne założenia lub „formalności” danych, które muszą być zgodne z prawdą, aby stosować je jedna nad drugą. Prawdziwy przykład byłby niezwykle przydatny.
pca
factor-analysis
Brandon Bertelsen
źródło
źródło
Odpowiedzi:
Analiza głównego składnika polega na wyodrębnieniu liniowych kompozytów obserwowanych zmiennych.
Analiza czynnikowa oparta jest na modelu formalnym przewidującym obserwowane zmienne na podstawie teoretycznych czynników ukrytych.
W psychologii te dwie techniki są często stosowane w konstrukcji testów wieloskalowych w celu ustalenia, które przedmioty obciążają poszczególne skale. Zazwyczaj dają one podobne merytoryczne wnioski (dyskusja patrz Comrey (1988) Factor-Analytic Methods of Scale Development in Personality and Clinical Psychology). Pomaga to wyjaśnić, dlaczego niektóre pakiety statystyk wydają się łączyć je ze sobą. Widziałem także sytuacje, w których „analiza głównego elementu” jest nieprawidłowo oznaczona jako „analiza czynnikowa”.
Jeśli chodzi o prostą zasadę , sugeruję, abyś:
Przeprowadź analizę czynnikową, jeśli zakładasz lub chcesz przetestować teoretyczny model czynników ukrytych powodujących obserwowane zmienne.
Uruchom analizę głównych składników Jeśli chcesz po prostu zredukować skorelowane obserwowane zmienne do mniejszego zestawu ważnych niezależnych zmiennych złożonych.
źródło
Z mojej odpowiedzi tutaj:
Czy po PCA następuje obrót (np. Varimax) nadal PCA?
Analiza głównych składników (PCA) i analiza wspólnych czynników (CFA) to odrębne metody. Często dają one podobne wyniki, a PCA jest używana jako domyślna metoda ekstrakcji w procedurach analizy współczynnika SPSS. To niewątpliwie powoduje wiele nieporozumień co do rozróżnienia między nimi.
Najważniejsze jest to, że są to dwa różne modele, koncepcyjnie. W PCA komponenty są rzeczywistymi liniowymi kombinacjami ortogonalnymi, które maksymalizują całkowitą wariancję. W FA czynniki są kombinacjami liniowymi, które maksymalizują wspólną część wariancji - leżące u podstaw „ukrytych konstrukcji”. Dlatego FA jest często nazywany „analizą wspólnego czynnika”. FA korzysta z różnych procedur optymalizacji, a wynik, w przeciwieństwie do PCA, zależy od zastosowanej procedury optymalizacji i punktów początkowych dla tych procedur. Po prostu nie ma jednego unikalnego rozwiązania.
W R funkcja factanal () zapewnia CFA wyodrębnienie maksymalnego prawdopodobieństwa. Nie należy więc oczekiwać, że odtworzy wynik SPSS oparty na ekstrakcji PCA. To po prostu inny model lub logika. Nie jestem pewien, czy uzyskasz ten sam wynik, jeśli użyjesz ekstrakcji Maksymalnego Prawdopodobieństwa SPSS, ponieważ mogą nie używać tego samego algorytmu.
Dla lepszego lub gorszego w R można jednak odtworzyć pomieszaną „analizę czynnikową”, którą SPSS zapewnia jako domyślną. Oto proces w R. Za pomocą tego kodu jestem w stanie odtworzyć wynik „analizy czynnikowej” głównego komponentu SPSS przy użyciu tego zestawu danych. (Z wyjątkiem znaku, który jest nieokreślony). Ten wynik można również obrócić za pomocą dowolnej z dostępnych metod obrotu R.
źródło
principal(attitude, 2, rotate="none")
zpsych
opakowania i od tej reguły jest Kayser (EV> 1) nie jest najbardziej zalecany sposób, aby przetestować wymiarowości (to zawyża liczbę czynników).factanal()
zapewnia EFA, a nie CFA. Z mojego doświadczenia wynika, że ekstrakcja SPSS o maksymalnym prawdopodobieństwie powinna dawać taki sam wynik, ponieważfactanal()
nie ma rotacji ukośnej.Masz rację co do swojego pierwszego punktu, chociaż w FA ogólnie pracujesz z obydwoma (wyjątkowością i wspólnotą). Wybór między PCA i FA jest od dawna debatą wśród psychometrów. Jednak nie do końca podążam za tobą. Obrót głównych osi można zastosować niezależnie od metody zastosowanej do skonstruowania czynników utajonych. W rzeczywistości najczęściej jest to rotacja VARIMAX (rotacja ortogonalna, z uwzględnieniem czynników nieskorelowanych), która jest stosowana ze względów praktycznych (najłatwiejsza interpretacja, najłatwiejsze reguły punktacji lub interpretacja wyników czynników itp.), Chociaż rotacja skośna (np. PROMAX ) prawdopodobnie lepiej odzwierciedla rzeczywistość (konstrukcje utajone często są ze sobą skorelowane), przynajmniej w tradycji FA, w której zakłada się, że utajona konstrukcja jest naprawdę w centrum obserwowanych wzajemnych korelacji między zmiennymi. Chodzi o to, że PCA, po którym następuje rotacja VARIMAX, nieco zniekształca interpretację liniowych kombinacji zmiennych pierwotnych w tradycji „analizy danych” (patrz praca Michela Tenenhausa). Z psychometrycznej perspektywy preferowane są modele FA, ponieważ wyraźnie uwzględniają błędy pomiarowe, podczas gdy PCA nie przejmuje się tym. Krótko mówiąc, używając PCA wyrażasz każdy składnik (czynnik) jako liniową kombinację zmiennych, podczas gdy w FA są to zmienne wyrażone jako liniowe kombinacje czynników (w tym wspólnoty i składniki unikatowe, jak powiedziałeś). Chodzi o to, że PCA, po którym następuje rotacja VARIMAX, nieco zniekształca interpretację liniowych kombinacji zmiennych pierwotnych w tradycji „analizy danych” (patrz praca Michela Tenenhausa). Z psychometrycznej perspektywy preferowane są modele FA, ponieważ wyraźnie uwzględniają błędy pomiarowe, podczas gdy PCA nie przejmuje się tym. Krótko mówiąc, używając PCA wyrażasz każdy składnik (czynnik) jako liniową kombinację zmiennych, podczas gdy w FA są to zmienne wyrażone jako liniowe kombinacje czynników (w tym wspólnoty i składniki unikatowe, jak powiedziałeś). Chodzi o to, że PCA, po którym następuje rotacja VARIMAX, nieco zniekształca interpretację liniowych kombinacji zmiennych pierwotnych w tradycji „analizy danych” (patrz praca Michela Tenenhausa). Z psychometrycznej perspektywy preferowane są modele FA, ponieważ wyraźnie uwzględniają błędy pomiarowe, podczas gdy PCA nie przejmuje się tym. Krótko mówiąc, używając PCA wyrażasz każdy składnik (czynnik) jako liniową kombinację zmiennych, podczas gdy w FA są to zmienne wyrażone jako liniowe kombinacje czynników (w tym wspólnoty i składniki unikatowe, jak powiedziałeś). Preferowane są modele FA, ponieważ jawnie uwzględniają błędy pomiarowe, podczas gdy PCA nie przejmuje się tym. Krótko mówiąc, używając PCA wyrażasz każdy składnik (czynnik) jako liniową kombinację zmiennych, podczas gdy w FA są to zmienne wyrażone jako liniowe kombinacje czynników (w tym wspólnoty i składniki unikatowe, jak powiedziałeś). Preferowane są modele FA, ponieważ jawnie uwzględniają błędy pomiarowe, podczas gdy PCA nie przejmuje się tym. Krótko mówiąc, używając PCA wyrażasz każdy składnik (czynnik) jako liniową kombinację zmiennych, podczas gdy w FA są to zmienne wyrażone jako liniowe kombinacje czynników (w tym wspólnoty i składniki unikatowe, jak powiedziałeś).
Polecam najpierw przeczytać następujące dyskusje na ten temat:
źródło
PCA followed by VARIMAX rotation somewhat distorts the interpretation of the linear combinations of the original variables in the "data analysis" tradition
. Chl, mógłbyś to wyjaśnić? To interesujące.W sieci istnieje wiele sugerowanych definicji. Oto jeden ze słownika on-line na temat uczenia statystycznego :
źródło
Najlepsza odpowiedź w tym wątku sugeruje, że PCA jest bardziej techniką redukcji wymiarów, podczas gdy FA jest raczej techniką zmiennej utajonej. To jest sensu ściśle poprawne. Ale wiele odpowiedzi tutaj i wiele zabiegów gdzie indziej przedstawia PCA i FA jako dwie zupełnie różne metody, z odmiennymi, jeśli nie przeciwnymi celami, metodami i wynikami. Nie zgadzam się; Uważam, że kiedy PCA jest uważana za technikę zmiennej utajonej, jest ona dość zbliżona do FA i powinny być lepiej postrzegane jako bardzo podobne metody.
Podałem swoje własne podobieństwo i różnice między PCA i FA w następującym wątku: Czy jest jakiś dobry powód, aby używać PCA zamiast EFA? Czy PCA może również zastąpić analizę czynnikową? Twierdzę tam, że z prostych powodów matematycznych można oczekiwać, że wyniki PCA i FA będą dość podobne, biorąc pod uwagę, że liczba zmiennych nie jest bardzo mała (być może kilkanaście). Zobacz moją [długą!] Odpowiedź w powiązanym wątku, aby uzyskać szczegóły matematyczne i symulacje Monte Carlo. Bardziej zwięzłą wersję mojego argumentu można znaleźć tutaj: w jakich warunkach PCA i FA dają podobne wyniki?
Tutaj chciałbym to pokazać na przykładzie. Przeanalizuję zestaw danych dotyczących wina z UCI Machine Learning Repository. Jest to dość dobrze znany zestaw danych z win z trzech różnych winogron opisanych przez p = 13n = 178 p = 13 zmienne . Oto jak wygląda macierz korelacji:
Przeprowadziłem zarówno analizę PCA, jak i FA, i pokazałem projekcje 2D danych jako biploty dla obu z nich na poniższym rysunku (PCA po lewej, FA po prawej). Osie poziome i pionowe pokazują wyniki pierwszego i drugiego komponentu / czynnika. Każda z wartościn = 178 kropek odpowiada jednemu winu, a kropki są kolorowe zgodnie z grupą (patrz legenda):
Zauważ, że nie ma prawie żadnej różnicy między PCA i FA! Tu i tam są małe odchylenia, ale ogólny obraz jest prawie identyczny, a wszystkie obciążenia są bardzo podobne i wskazują w tych samych kierunkach. Dokładnie tego oczekiwano od teorii i nie jest to zaskoczeniem; jednak pouczające jest obserwowanie.
PS. Aby uzyskać znacznie ładniejszy dwuplot PCA tego samego zestawu danych, zobacz tę odpowiedź autorstwa @vqv .
PPS. Podczas gdy obliczenia PCA są standardowe, obliczenia FA mogą wymagać komentarza. Obciążenia czynnikowe obliczono za pomocą algorytmu „iterowanych czynników głównych” aż do zbieżności (9 iteracji), a wspólnoty zainicjowano częściowymi korelacjami. Po zrównaniu się obciążeń wyniki zostały obliczone przy użyciu metody Bartletta. Daje to standardowe wyniki; Skalowałem je według odpowiednich wariancji czynnikowych (podanych przez długości ładunków).
źródło
Podstawowe, a jednocześnie swego rodzaju żmudne wyjaśnienie analizy PCA vs. analiza czynnikowa za pomocą wykresów rozrzutu, w logicznych krokach. (Dziękuję @amoeba, który w swoim komentarzu do pytania zachęcił mnie do opublikowania odpowiedzi zamiast zamieszczania linków do innych stron. A więc oto czas wolny, późna odpowiedź).
PCA jako podsumowanie zmiennych (ekstrakcja cech)
Mam nadzieję, że już rozumiesz PCA. Aby ożywić teraz.
Współczynniki te są cosinusami obrotu (= cosinusy kierunku, główne kierunki) i obejmują tak zwane wektory własne, podczas gdy wartości własne macierzy kowariancji są głównymi wariancjami składowymi. W PCA zwykle odrzucamy słabe ostatnie składniki: w ten sposób podsumowujemy dane według kilku pierwszych wyodrębnionych składników, przy niewielkiej utracie informacji.
Z naszych wykreślonych danych, wartości składnika P1 (wyniki)
P1 = .73543*V1 + .67761*V2
i składnik P2 odrzucamy. Wariancji P1 jest1.75756
, 1st wartością własną macierzy kowariancji, a więc P1 wyjaśnia86.5%
o całkowitej wariancji, która jest równa(1.07652+.95534) = (1.75756+.27430)
.PCA jako predykcja zmiennej (funkcja „utajona”)
gdzie współczynnikiza mi
Teraz charakterystyczne dla PCA jest to, że jeśli obliczymy E1 i E2 dla każdego punktu w danych i wykreślimy te współrzędne - tj. Wykonamy wykres rozrzutu samych błędów, „dane błędu” w chmurze zbiegną się z odrzuconym składnikiem P2. I tak się dzieje: chmura jest wykreślana na tym samym obrazie co chmura beżowa - i widzisz, że faktycznie tworzy ona oś P2 (na ryc. 1 ) ułożoną z ocenami składowymi P2.
Nic dziwnego, możesz powiedzieć. Jest to tak oczywiste: w PCA odrzucone elementy młodsze są tym, co precyzyjnie rozkłada się w błędach prognozowania E, w modelu, który wyjaśnia (przywraca) oryginalne zmienne V za pomocą ukrytych cech P1. Błędy E razem stanowią po prostu pominięte komponenty. Tutaj analiza czynnikowa zaczyna się różnić od PCA.
Idea wspólnego FA (funkcja ukryta)
Formalnie model przewidywania zmiennych przejawionych przez wyodrębnione ukryte cechy jest taki sam w FA jak w PCA; [ Eq.3 ]:
gdzie F jest ukrytym wspólnym czynnikiem wyodrębnionym z danych i zastępującym to, co było P1 w równaniu 2 . Różnica w modelu polega na tym, że w FA, w przeciwieństwie do PCA, zmienne błędu (E1 i E2) muszą być ze sobą nieskorelowane .
OK, wracając do wątku. E1 i E2 są nieskorelowane w analizie czynnikowej; dlatego powinny tworzyć chmurę błędów okrągłych lub eliptycznych, ale nie zorientowanych ukośnie. Podczas przebywania w PCA ich chmura utworzyła linię prostą pokrywającą się z przechodzącym po przekątnej P2. Oba pomysły pokazano na zdjęciu:
Zauważ, że błędy to okrągła (nie ukośnie wydłużona) chmura w FA. Czynnik (utajony) w FA jest zorientowany nieco inaczej, tj. Nie jest poprawny pierwszy główny składnik, który jest „utajony” w PCA. Na zdjęciu linia czynnikowa jest nieco dziwnie stożkowa - stanie się jasne, dlaczego w końcu.
Jakie jest znaczenie tej różnicy między PCA a FA? Zmienne skorelowane, co widać w ukośnym eliptycznym kształcie chmury danych. P1 przesunął maksymalną wariancję, więc elipsa jest skierowana w stronę P1. W związku z tym P1 samo wyjaśniało korelację; ale to nie wyjaśniło odpowiednio istniejącej ilości korelacji ; starał się wyjaśnić zmienność punktów danych, a nie korelację. W rzeczywistości zawyżał korelację, w wyniku czego pojawił się przekątny, skorelowany obłok błędów, który kompensuje zawyżenie. Sam P1 nie jest w stanie kompleksowo wyjaśnić siły korelacji / kowariacji. Współczynnik F. możeZrób to sam; a warunkiem, kiedy jest w stanie to zrobić, jest dokładnie to, gdzie można zmusić błędy do nieskorelowania. Ponieważ chmura błędów jest okrągła, po wyodrębnieniu czynnika nie pozostała korelacja - dodatnia ani ujemna - stąd czynnik ten przejął wszystko.
Jako zmniejszenie wymiarów PCA wyjaśnia wariancję, ale nieprecyzyjnie wyjaśnia korelacje. FA wyjaśnia korelacje, ale nie może uwzględnić (przez wspólne czynniki) tak dużej zmienności danych, jak PCA może. Czynniki wpływające na współczynnik FA uwzględniają tę część zmienności, która jest częścią korelacyjną netto, zwaną wspólnotą ; a zatem czynniki mogą być interpretowane jako rzeczywiste, ale nieobserwowalne siły / cechy / cechy, które ukrywają zmienne wejściowe lub „za” zmiennymi wejściowymi, aby je skorelować. Ponieważ dobrze wyjaśniają korelację matematyczną. Główne składniki (kilka pierwszych) wyjaśniają to matematycznie nie tak dobrze, dlatego można je nazwać „cechą utajoną” (lub taką) tylko w pewnym stopniu i wstępnie .
Mnożenie ładunków tłumaczy (przywraca) korelację lub korelację w postaci kowariancji - jeśli analiza była oparta na macierzy kowariancji (jak w naszym przykładzie), a nie na macierzy korelacji. Analiza czynnikowa, którą wykonałem z uzyskanymi danymi
a_1=.87352, a_2=.84528
, więc produkta_1*a_2 = .73837
jest prawie równy kowariancji.73915
. Z drugiej strony ładunki PCA byłya1_1=.97497, a1_2=.89832
, więca1_1*a1_2 = .87584
zawyżone.73915
znacznie .Po wyjaśnieniu głównej teoretycznej różnicy między PCA i FA, wróćmy do naszych danych, aby zilustrować ten pomysł.
FA: przybliżone rozwiązanie (oceny czynnikowe)
Poniżej znajduje się wykres rozrzutu pokazujący wyniki analizy, którą tymczasowo nazwiemy „nieoptymalną analizą czynnikową”, ryc . 3 .
Zobacz odjazdy z ryc . 2 PCA. Beżowa chmura błędów nie jest okrągła, jest po przekątnej eliptyczna, ale jest wyraźnie grubsza niż cienka ukośna linia występująca w PCA. Zauważ też, że złącza błędów (pokazane dla niektórych punktów) nie są już równoległe (w PCA były z definicji równoległe do P2). Co więcej, jeśli spojrzysz na przykład na punkty „F” i „E”, które leżą lustro symetrycznie nad osią F czynnika , nieoczekiwanie zauważysz, że odpowiadające im wyniki współczynnika mają zupełnie inne wartości. Innymi słowy, wyniki czynnikowe to nie tylko liniowo przekształcone główne wyniki składowe: czynnik F jest znaleziony na swój sposób odmienny od sposobu P1. Ich osie nie pokrywają się całkowicie, jeśli są pokazane razem na tej samej działce Ryc. 4 :
Poza tym są nieco inaczej zorientowane, F (zgodnie z wynikami) jest krótszy, tj. Odpowiada mniejszej wariancji niż konta P1. Jak zauważono wcześniej, czynnik bierze pod uwagę tylko zmienność, która odpowiada za korelację V1 V2, tj. Część całkowitej wariancji, która jest wystarczająca, aby wyprowadzić zmienne z pierwotnej kowariancji
0
do faktycznej kowariancji.73915
.FA: optymalne rozwiązanie (prawdziwy czynnik)
Optymalne rozwiązanie czynnikowe występuje wtedy, gdy błędy są okrągłe lub nieprzekątne chmury eliptyczne: E1 i E2 są całkowicie nieskorelowane . Analiza czynnikowa faktycznie powraca takie optymalne rozwiązanie. Nie pokazałem tego na prostym wykresie rozrzutu, jak te powyżej. Dlaczego ja? - w końcu byłaby to najciekawsza rzecz.
Powodem jest to, że nie można odpowiednio pokazać na wykresie rozrzutu, nawet przyjmując wykres 3D. Teoretycznie jest to dość interesujący punkt. Aby E1 i E2 były całkowicie nieskorelowane, wydaje się, że wszystkie te trzy zmienne, F, E1, E2 muszą leżeć nie w przestrzeni (płaszczyźnie) określonej przez V1, V2; i te trzy muszą być ze sobą nieskorelowane . Wierzę, że można narysować taki wykres rozrzutu w 5D (i może z pewnym chwytem - w 4D), ale niestety żyjemy w świecie 3D. Czynnik F musi być nieskorelowany zarówno z E1, jak i E2 (podczas gdy oba są również nieskorelowane), ponieważ F ma być jedynym (czystym) i kompletnym źródłem korelacji w obserwowanych danych. Analizę czynników dzieli całkowitą wariancję z następujących
p
zmienne wejściowe na dwie nieskorelowane (nie nakładające się) części: -wymiarową, w której błędy są również nazywane czynnikami unikalnymi, wzajemnie nieskorelowanymi).część wspólnoty (m
wymiar, gdziem
rządzą wspólne czynniki) i część wyjątkowości (p
Więc wybacz, że nie pokazałeś tutaj prawdziwego czynnika naszych danych na wykresie rozrzutu. Można to dość dobrze wizualizować za pomocą wektorów w „przestrzeni tematycznej”, tak jak tutaj zrobiono bez pokazywania punktów danych.
Powyżej, w sekcji „Idea wspólnego FA (cecha ukryta)” pokazałem współczynnik (oś F) jako klin, aby ostrzec, że prawdziwa oś czynnika nie leży na płaszczyźnie V1 V2. Oznacza to, że - w przeciwieństwie do głównego składnika P1 - współczynnik F jako oś nie jest obrotem osi V1 lub V2 w ich przestrzeni, a F jako zmienna nie jest liniową kombinacją zmiennych V1 i V2. Dlatego F jest modelowane (wyodrębniane ze zmiennych V1 v2) tak, jakby była zewnętrzną, niezależną zmienną, a nie ich pochodną. Równania takie jak równanie 1, od którego rozpoczyna się PCA, nie mają zastosowania do obliczenia rzeczywistego (optymalnego) współczynnika w analizie czynnikowej, podczas gdy formalnie równania izomorficzne równoważne 2 i równoważne 3są ważne dla obu analiz. Oznacza to, że w PCA zmienne generują komponenty i komponenty przewidują z powrotem zmienne; w współczynniku (-ach) FA generuje / przewiduje zmienne, a nie odwrotnie - wspólny model czynnikowy zakłada tak , chociaż technicznie czynników pochodzących z obserwowanych zmiennych.
Nie tylko czynnik rzeczywisty nie jest funkcją zmiennych manifestu, ale też wartości czynnika rzeczywistego nie są jednoznacznie zdefiniowane . Innymi słowy, są po prostu nieznane. Wszystko to wynika z faktu, że znajdujemy się w nadmiernej przestrzeni analitycznej 5D, a nie w naszej domowej przestrzeni 2D danych. Dostępne są tylko dobre aproksymacje (istnieje wiele metod ) do prawdziwych wartości czynników, zwanych wynikami czynników . Oceny czynnikowe leżą w płaszczyźnie V1 V2, podobnie jak wyniki głównych składowych, są one obliczane jako funkcje liniowe V1, V2, i to były onektóre narysowałem w sekcji „FA: przybliżone rozwiązanie (oceny czynnikowe)”. Oceny głównych składników są prawdziwymi wartościami składników; oceny czynnikowe są jedynie rozsądnym przybliżeniem do nieokreślonych rzeczywistych wartości czynników.
FA: podsumowanie procedury
Zatem „rozwiązanie czynnikowe” wyświetlane przeze mnie w sekcji „FA: rozwiązanie przybliżone (wyniki czynnikowe)” opierało się faktycznie na optymalnych obciążeniach, tj. Na czynnikach rzeczywistych. Ale wyniki nie były optymalne pod względem przeznaczenia. Wyniki są obliczane jako funkcja liniowa obserwowanych zmiennych, podobnie jak wyniki składowe, więc można je porównać na wykresie rozrzutu, a ja zrobiłem to w dążeniu dydaktycznym, aby pokazać jak stopniowe przejście od pomysłu PCA do pomysłu FA.
Należy zachować ostrożność przy sporządzaniu wykresów na tych samych ładunkach czynników biplotowych z wynikami czynnikowymi w „przestrzeni czynników”, należy pamiętać, że ładunki odnoszą się do czynników rzeczywistych, a wyniki odnoszą się do czynników zastępczych (patrz moje komentarze do tej odpowiedzi w tym wątku).
Obracanie czynników (ładunków) pomaga interpretować ukryte cechy. Obracanie ładunków można wykonać również w PCA, jeśli użyjesz PCA tak, jakbyś analizował czynnik (to znaczy, zobacz PCA jako predykcję zmiennej). PCA ma tendencję do zbieżności wyników z FA wraz ze wzrostem liczby zmiennych (patrz niezwykle bogaty wątek na temat praktycznych i koncepcyjnych podobieństw i różnic między tymi dwiema metodami). Zobacz moją listę różnic między PCA i FA na końcu tej odpowiedzi . Obliczenia krok po kroku PCA vs FA na zestawie danych tęczówki można znaleźć tutaj . Istnieje znaczna liczba dobrych linków do odpowiedzi innych uczestników na ten temat poza tym wątkiem; Przepraszam, że użyłem tylko kilku z nich w bieżącej odpowiedzi.
Zobacz także listę punktową różnic między PCA i FA tutaj .
źródło
Różnice między analizą czynnikową a analizą głównych składników to:
• W analizie czynnikowej istnieje model strukturalny i pewne założenia. Pod tym względem jest to technika statystyczna, która nie ma zastosowania do analizy głównych składników, która jest czysto matematyczną transformacją.
• Celem analizy głównego składnika jest wyjaśnienie wariancji, podczas gdy analiza czynnikowa wyjaśnia kowariancję między zmiennymi.
Jedną z największych przyczyn pomyłki między tymi dwoma jest fakt, że jedna z metod ekstrakcji czynnikowej w analizie czynnikowej nazywana jest „metodą głównych składników”. Jednak jedną rzeczą jest użycie PCA, a inną metodą głównych składników w FA. Nazwy mogą być podobne, ale istnieją znaczne różnice. Pierwsza jest niezależną metodą analityczną, a druga jest jedynie narzędziem do ekstrakcji czynników.
źródło
Dla mnie (i mam nadzieję, że jest to przydatne) analiza czynnikowa jest znacznie bardziej przydatna niż PCA.
Ostatnio miałem przyjemność analizować skalę poprzez analizę czynnikową. Skala ta (chociaż jest szeroko stosowana w przemyśle) została opracowana przy użyciu PCA i, o ile wiem, nigdy nie była analizowana czynnikowo.
Kiedy przeprowadziłem analizę czynnikową (oś główna), odkryłem, że wspólnoty dla trzech elementów były mniejsze niż 30%, co oznacza, że ponad 70% wariancji elementów nie było analizowane. PCA po prostu przekształca dane w nową kombinację i nie dba o społeczności. Doszedłem do wniosku, że skala nie była bardzo dobra z psychometrycznego punktu widzenia, i potwierdziłem to inną próbą.
Zasadniczo, jeśli chcesz przewidywać za pomocą czynników, użyj PCA, a jeśli chcesz zrozumieć ukryte czynniki, użyj analizy czynnikowej.
źródło
Rozwijając odpowiedź @ StatisticsDocConsulting: różnica w obciążeniach między EFA i PCA nie jest trywialna z niewielką liczbą zmiennych. Oto funkcja symulacji pokazująca to w języku R:
Iterations
Sample.Size
Iterations
principal()
factanal()
Korzystając z tego kodu, symulowałem próbki 3–100 zmiennych z 500 iteracjami każda w celu wygenerowania danych:
... dla wykresu wrażliwości średnich ładunków (między zmiennymi i iteracjami) na liczbę zmiennych:
źródło
Można myśleć o PCA jako o FA, w którym zakłada się, że wspólnoty wynoszą 1 dla wszystkich zmiennych. W praktyce oznacza to, że przedmioty, które miałyby stosunkowo niskie obciążenia czynnikowe w FA z powodu niskiej wspólnoty, będą miały większe obciążenia w PCA. Nie jest to pożądana cecha, jeśli głównym celem analizy jest skrócenie długości przedmiotu i oczyszczenie akumulatora z przedmiotów o niskim lub niejednoznacznym obciążeniu, lub zidentyfikowanie pojęć, które nie są dobrze reprezentowane w puli przedmiotów.
źródło
Cytat z naprawdę fajnego podręcznika (Brown, 2006, s. 22, podkreślenie dodane).
PCA = analiza głównych składników
EFA = eksploracyjna analiza czynnikowa
CFA = potwierdzająca analiza czynnikowa
Brown, TA (2006). Potwierdzająca analiza czynnikowa dla badań stosowanych. Nowy Jork: Guilford Press.
źródło
W artykule Tipping i Bischop omówiono ścisły związek między probabalistyczną PCA (PPCA) a analizą czynnikową. PPCA jest bliższy FA niż klasyczny PCA. Wspólnym modelem jest
Michael E. Tipping, Christopher M. Bishop (1999). Probabilistyczna analiza głównych składników , Journal of Royal Statistics Society, tom 61, wydanie 3, strony 611–622
źródło
Żadna z tych odpowiedzi nie jest idealna. Albo FA albo PCA ma kilka wariantów. Musimy wyraźnie wskazać, które warianty są porównywane. Porównałbym analizę współczynnika największej wiarygodności i PCA Hotellinga. Te pierwsze zakładają, że zmienna utajona ma rozkład normalny, ale PCA nie ma takiego założenia. Doprowadziło to do różnic, takich jak rozwiązanie, zagnieżdżanie komponentów, unikalność rozwiązania, algorytmy optymalizacji.
źródło
Istnieje wiele świetnych odpowiedzi na ten post, ale ostatnio natknąłem się na inną różnicę.
Klastrowanie to jedna aplikacja, w której PCA i FA dają różne wyniki. Gdy dane zawierają wiele funkcji, można spróbować znaleźć najlepsze kierunki komputera i wyświetlić dane na tych komputerach, a następnie przejść do tworzenia klastrów. Często zaburza to nieodłączne klastry danych - jest to dobrze sprawdzony wynik. Naukowcy sugerują, aby przejść do metod klastrowania w podprzestrzeni, które szukają niskowymiarowych czynników ukrytych w modelu.
Aby zilustrować tę różnicę, rozważ
Crabs
zestaw danych w R. Krab Zestaw danych ma 200 wierszy i 8 kolumn, opisujących 5 pomiarów morfologicznych na 50 krabach, każdej z dwóch form kolorystycznych i obu płci, z gatunku - Zasadniczo istnieją 4 (2x2) różne klasy kraby.Klastrowanie za pomocą PC1 i PC2:
Klastrowanie za pomocą PC2 i PC3:
Jak widać z powyższych wykresów, PC2 i PC3 niosą więcej dyskryminujących informacji niż PC1.
Jeśli ktoś spróbuje utworzyć klaster za pomocą ukrytych czynników za pomocą Mixture of Factor Analyzers, zobaczymy znacznie lepszy wynik w porównaniu z użyciem dwóch pierwszych komputerów.
źródło