Najlepsze metody ekstrakcji czynnikowej w analizie czynnikowej

29

SPSS oferuje kilka metod ekstrakcji czynników:

  1. Główne składniki (które wcale nie są analizą czynnikową)
  2. Nieważone najmniejsze kwadraty
  3. Uogólnione najmniejsze kwadraty
  4. Maksymalne prawdopodobieństwo
  5. Głównej osi
  6. Faktoring alfa
  7. Faktoring obrazu

Ignorując pierwszą metodę, która nie jest analizą czynnikową (ale analizą głównego składnika, PCA), która z tych metod jest „najlepsza”? Jakie są względne zalety różnych metod? I w zasadzie, jak mam wybrać, którego użyć?

Dodatkowe pytanie: czy należy uzyskać podobne wyniki ze wszystkich 6 metod?

Placidia
źródło
Hmm, mój pierwszy impuls: czy nie ma na ten temat wpisu w Wikipedii? Jeśli nie - na pewno powinien istnieć jeden
Gottfried Helms
4
Tak, jest artykuł na Wikipedii. Mówi się, aby użyć MLE, jeśli dane są normalne, a PAF w przeciwnym razie. Nie mówi wiele o zaletach ani o innych opcjach. W każdym razie z przyjemnością dowiem się, co członkowie tej strony sądzą o tym problemie na podstawie ich praktycznych doświadczeń.
Placidia

Odpowiedzi:

41

Krótko mówiąc. Dwie ostatnie metody są bardzo szczególne i różnią się od liczb 2–5. Wszystkie są nazywane analizą wspólnego czynnika i rzeczywiście są postrzegane jako alternatywy. W większości przypadków dają raczej podobne wyniki. Są „powszechne”, ponieważ reprezentują klasyczny model czynników , czynniki wspólne + model czynników unikalnych. Jest to ten model, który jest zwykle stosowany w analizie / walidacji kwestionariusza.

Oś główna (PAF) , znana również jako iteracje, jest najstarszą i być może dość popularną metodą. Jest to iteracyjna aplikacja PCA do macierzy, gdzie wspólnoty stoją na przekątnej w miejsce 1s lub wariancji. Każda kolejna iteracja doprecyzowuje zatem wspólnoty, dopóki się nie zbiegną. W ten sposób metoda, która ma na celu wyjaśnienie wariancji, a nie korelacji parami, ostatecznie wyjaśnia korelacje. Metoda osi głównej ma tę zaletę, że może, podobnie jak PCA, analizować nie tylko korelacje, ale także kowariancje i inne1Miary SSCP (raw sscp, cosinus). Pozostałe trzy metody przetwarzają tylko korelacje [w SPSS; kowariancje mogą być analizowane w niektórych innych wdrożeniach]. Ta metoda zależy od jakości początkowych szacunków gmin (i jest jej wadą). Zwykle kwadratowa wielokrotna korelacja / kowariancja jest używana jako wartość początkowa, ale możesz preferować inne szacunki (w tym te zaczerpnięte z poprzednich badań). Proszę przeczytać to więcej. Jeśli chcesz zobaczyć przykład obliczeń faktoringowych z osią główną, skomentowanych i porównanych z obliczeniami PCA, spójrz tutaj .

Zwykły lub nieważony najmniejszy kwadrat (ULS) to algorytm, którego bezpośrednim celem jest zminimalizowanie resztek między wejściową macierzą korelacji a odtwarzaną (przez czynniki) macierzą korelacji (natomiast elementy diagonalne jako sumy wspólności i niepowtarzalności mają na celu przywrócenie 1s) . To jest proste zadanie FA . Metoda ULS może działać z pojedynczą, a nawet nie dodatnią, pół-skończoną macierzą korelacji, pod warunkiem, że liczba czynników jest mniejsza niż jej ranga - chociaż wątpliwe jest, czy teoretycznie FA jest odpowiednie.2

Uogólnione lub ważone najmniejsze kwadraty (GLS) to modyfikacja poprzedniego. Minimalizując resztki, waży różnie współczynniki korelacji: korelacje między zmiennymi o wysokiej jednoznaczności (przy bieżącej iteracji) mają mniejszą wagę . Użyj tej metody, jeśli chcesz, aby twoje czynniki pasowały do ​​wysoce unikalnych zmiennych (tj. Słabo napędzanych przez czynniki) gorszych niż bardzo powszechne zmienne (tj. Silnie napędzane przez czynniki). To życzenie nie jest rzadkie, szczególnie w procesie budowy kwestionariusza (przynajmniej tak mi się wydaje), więc ta właściwość jest korzystna .34

Maksymalne prawdopodobieństwo (ML)zakłada, że ​​dane (korelacje) pochodzą z populacji o wielowymiarowym rozkładzie normalnym (inne metody nie przyjmują takiego założenia), a zatem reszty współczynników korelacji muszą być normalnie rozmieszczone wokół 0. Obciążenia są iteracyjnie szacowane metodą ML przy powyższym założeniu. Traktowanie korelacji jest ważone przez unikalność w taki sam sposób, jak w Uogólnionej metodzie najmniejszych kwadratów. Podczas gdy inne metody po prostu analizują próbkę taką, jaka jest, metoda ML pozwala na pewne wnioskowanie na temat populacji, ale wraz z nią oblicza się zwykle szereg wskaźników dopasowania i przedziałów ufności [niestety przeważnie nie w SPSS, chociaż ludzie pisali makra dla SPSS, które to robią to].

Wszystkie metody, które krótko opisałem, to liniowy, ciągły model utajony. „Liniowy” oznacza, że ​​na przykład korelacji rang nie należy analizować. „Ciągły” oznacza, że ​​na przykład dane binarne nie powinny być analizowane (bardziej odpowiednie byłyby IRT lub FA oparte na korelacjach tetrachorycznych).


1 Ponieważ macierz korelacji (lub kowariancji) , - po umieszczeniu początkowych wspólnot na jej przekątnej, zwykle będzie miała pewne ujemne wartości własne, należy ich unikać; dlatego PCA należy wykonać metodą rozkładu własnego, a nie SVD.R

2Metoda ULS obejmuje iteracyjny skład liczbowy zredukowanej macierzy korelacji, takiej jak PAF, ale w ramach bardziej złożonej procedury optymalizacji Newtona-Raphsona, której celem jest znalezienie unikatowych wariancji ( , unikatowości), w których korelacje są maksymalnie rekonstruowane. W ten sposób ULS wydaje się równoważny metodzie zwanej MINRES (tylko wyodrębnione ładunki wydają się nieco ortogonalnie obrócone w porównaniu z MINRES), o której wiadomo, że bezpośrednio minimalizuje sumę kwadratów reszt korelacji.u2

3 Algorytmy GLS i ML są w zasadzie jak ULS, ale skład eigend na iteracjach jest wykonywany na macierzy (lub na ), w celu włączenia unikatowości jako ciężary. ML różni się od GLS przyjęciem wiedzy na temat trendu wartości własnych oczekiwanego przy rozkładzie normalnym.uR1uu1Ru1

4 Fakt, że korelacje wytwarzane przez mniej powszechne zmienne mogą być dopasowywane gorzej, może (przypuszczam, że) dać trochę miejsca na obecność częściowych korelacji (których nie trzeba wyjaśniać), co wydaje się miłe. Czysty model wspólnego czynnika „nie oczekuje” częściowych korelacji, co nie jest zbyt realistyczne.

wprowadź opis zdjęcia tutaj

ttnphns
źródło
Myślę, że należy dodać jeszcze jeden aspekt: ​​czy używamy metod, aby dopasować rozwiązanie czynnikowe do określonej z góry liczby czynników, czy też liczba czynników powinna wynikać z danych według jakiegoś kryterium (wartość własna, screetest, ...) . Rozumiem, że ML jest sensowne tylko wtedy, gdy z góry określisz kilka czynników, a następnie poszukiwane będzie rozwiązanie czynnikowe, a nawet możliwy będzie test chi-kwadrat. PCA pozwala dynamicznie wyświetlać liczbę czynników według właściwości danych, biorąc pod uwagę pewne kryterium, bez testu chi-kwadrat. PAF można stosować na dwa sposoby.
Gottfried Helms
1
@Gottfried, wolałbym nie zgodzić się ze sposobem, w jaki to ująłeś. Metody wszystko FA wymagają wiele czynników m jest znana: zmieścić model dla m można określić. Możesz użyć różnych kryteriów, które mogą pomóc zdecydować o m , ale wszystkie one nie są częścią samych metod ekstrakcji czynników. Z wyjątkiem tego chi-kwadrat obliczonego wraz z metodami GLS i ML. Ponadto, stosując metodę PA, jeśli znasz z góry prawdziwe wspólnoty (co jest bardzo rzadkie), możesz sprawić , by poprowadziły cię w kierunku najlepszego m . Ale w każdym razie to ty, a nie algorytm ekstrakcji, decydujesz o m .
ttnphns
Czego powinniśmy użyć? Która jest najlepsza?
MrYouMath,
1
Najlepsze jest to, co lubisz najbardziej. Ty wybierasz, a następnie w razie potrzeby wyjaśnisz, dlaczego Ci odpowiada. Jak wszędzie.
ttnphns,
@ ttnphns, czy istnieje zasada when to use which?
Kittygirl