Co w analizie czynnikowej (lub w PCA), co oznacza ładunek czynnikowy większy niż 1?

10

Właśnie uruchomiłem FA przy użyciu skośnego obrotu (promax), a element dał ładunek czynnikowy wynoszący 1.041 na jeden czynnik, (i ładunki czynnikowe -.131, -.119 i .065 na innych czynnikach przy użyciu macierzy wzorów ) . I nie jestem pewien, co to znaczy, myślałem, że może to być tylko od -1 do 1.

Czy to z powodu skośnego obrotu? I czy ładowanie może przekraczać 1 z czynnikami ortogonalnymi?

Rodrigo M. Rosales
źródło

Odpowiedzi:

10

Kto powiedział ci, że ładunki czynnikowe nie mogą być większe niż 1? To może się zdarzyć. Zwłaszcza z wysoce skorelowanymi czynnikami.

Ten fragment z raportu na ten temat autorstwa wybitnego pioniera SEM w dużym stopniu podsumowuje:

„To nieporozumienie prawdopodobnie wynika z klasycznej eksploracyjnej analizy czynnikowej, w której ładunki czynnikowe są korelacjami, jeśli analizowana jest macierz korelacji, a czynniki są znormalizowane i nieskorelowane (ortogonalne). Jeśli jednak czynniki są skorelowane (skośne), ładunki czynnikowe są współczynnikami regresji i nie korelacje i jako takie mogą być większe niż jeden pod względem wielkości ”.

babka
źródło
5

Obciążenie w analizie czynnikowej lub w PCA ( patrz 1 , patrz 2 , patrz 3 ) to współczynnik regresji, waga w kombinacji liniowej przewidującej zmienne (pozycje) przez znormalizowane (wariancja jednostkowa) czynniki / składniki.

Powody przekroczenia obciążenia 1:

Powód 1: przeanalizowana macierz kowariancji. Jeśli analizowane były zmienne standaryzowane, to znaczy, analiza opierała się na macierzy korelacji , to po ekstrakcji lub po rotacji ortogonalnej (takiej jak varimax) - gdy czynniki / składniki pozostają nieskorelowane - obciążenia są również współczynnikami korelacji. Jest to właściwość równania regresji liniowej: w przypadku znormalizowanych predyktorów ortogonalnych parametry są równe korelacjom Pearsona. Tak więc w takim przypadku ładowanie nie może przekraczać [-1, 1].

Ale jeśli analizowane byłyby tylko zmienne wyśrodkowane, to znaczy analiza opierała się na macierzy kowariancji , to obciążenia nie muszą być ograniczone do [-1, 1], ponieważ współczynniki regresji to taki model nie musi być równy współczynnikom korelacji. Są to w rzeczywistości kowariancje. Zauważ, że były to surowe ładunki. Istnieją ładunki „przeskalowane” lub „znormalizowane” (opisane w linkach, które podałem w pierwszym akapicie), które są przeskalowane, aby nie opuszczały pasma [-1, 1].

Powód 2: skośny obrót. Po rotacji skośnej, takiej jak promaksa lub eliminacja, mamy dwa typy obciążeń: macierz wzorów (współczynniki regresji lub obciążenia same w sobie) i macierz struktury (współczynniki korelacji). Nie są sobie równe z podanego powyżej powodu: współczynniki regresji skorelowanych predyktorów różnią się od korelacji Pearsona. Tak więc ładowanie wzoru może z łatwością wykraczać poza [-1, 1]. Zauważ, że jest to prawdą nawet wtedy, gdy macierz korelacji była analizowaną macierzą. Tak właśnie jest, gdy czynniki / komponenty są ukośne.

Powód 3 (rzadko): sprawa Heywood. Przypadek Heywooda ( pkt 6 ) stanowi trudność w algorytmach analizy czynnikowej, gdy podczas iteracji obciążenie przekracza teoretycznie dopuszczalną wielkość - występuje, gdy wspólnota wykracza poza wariancję. Przypadek Heywooda jest rzadką sytuacją i występuje w niektórych zestawach danych, zwykle gdy jest zbyt mało zmiennych, aby obsłużyć żądaną liczbę czynników. Programy informują, że wystąpił błąd sprawy Heywood, albo zatrzymaj się, albo spróbuj go rozwiązać.

ttnphns
źródło