Obciążenie w analizie czynnikowej lub w PCA ( patrz 1 , patrz 2 , patrz 3 ) to współczynnik regresji, waga w kombinacji liniowej przewidującej zmienne (pozycje) przez znormalizowane (wariancja jednostkowa) czynniki / składniki.
Powody przekroczenia obciążenia 1:
Powód 1: przeanalizowana macierz kowariancji.
Jeśli analizowane były zmienne standaryzowane, to znaczy, analiza opierała się na macierzy korelacji , to po ekstrakcji lub po rotacji ortogonalnej (takiej jak varimax) - gdy czynniki / składniki pozostają nieskorelowane - obciążenia są również współczynnikami korelacji. Jest to właściwość równania regresji liniowej: w przypadku znormalizowanych predyktorów ortogonalnych parametry są równe korelacjom Pearsona. Tak więc w takim przypadku ładowanie nie może przekraczać [-1, 1].
Ale jeśli analizowane byłyby tylko zmienne wyśrodkowane, to znaczy analiza opierała się na macierzy kowariancji , to obciążenia nie muszą być ograniczone do [-1, 1], ponieważ współczynniki regresji to taki model nie musi być równy współczynnikom korelacji. Są to w rzeczywistości kowariancje. Zauważ, że były to surowe ładunki. Istnieją ładunki „przeskalowane” lub „znormalizowane” (opisane w linkach, które podałem w pierwszym akapicie), które są przeskalowane, aby nie opuszczały pasma [-1, 1].
Powód 2: skośny obrót. Po rotacji skośnej, takiej jak promaksa lub eliminacja, mamy dwa typy obciążeń: macierz wzorów (współczynniki regresji lub obciążenia same w sobie) i macierz struktury (współczynniki korelacji). Nie są sobie równe z podanego powyżej powodu: współczynniki regresji skorelowanych predyktorów różnią się od korelacji Pearsona. Tak więc ładowanie wzoru może z łatwością wykraczać poza [-1, 1]. Zauważ, że jest to prawdą nawet wtedy, gdy macierz korelacji była analizowaną macierzą. Tak właśnie jest, gdy czynniki / komponenty są ukośne.
Powód 3 (rzadko): sprawa Heywood. Przypadek Heywooda ( pkt 6 ) stanowi trudność w algorytmach analizy czynnikowej, gdy podczas iteracji obciążenie przekracza teoretycznie dopuszczalną wielkość - występuje, gdy wspólnota wykracza poza wariancję. Przypadek Heywooda jest rzadką sytuacją i występuje w niektórych zestawach danych, zwykle gdy jest zbyt mało zmiennych, aby obsłużyć żądaną liczbę czynników. Programy informują, że wystąpił błąd sprawy Heywood, albo zatrzymaj się, albo spróbuj go rozwiązać.