Byłbym zainteresowany otrzymywaniem sugestii, kiedy używać „ wyników czynnikowych ” zamiast zwykłej sumy wyników podczas konstruowania skal. Tj. „Wyrafinowane” w porównaniu z „nierafinowanymi” metodami oceny czynnika. Od DiStefano i in. (2009; pdf ), podkreślenie dodane:
Istnieją dwie główne klasy metod obliczania wyniku czynnikowego: wyrafinowane i nierafinowane. Nierafinowane metody są stosunkowo prostymi, kumulatywnymi procedurami zapewniającymi informacje o umiejscowieniu poszczególnych osób w rozkładzie czynników. Prostota nadaje się do niektórych atrakcyjnych cech, tj. Nierafinowane metody są łatwe do obliczenia i interpretacji. Udoskonalone metody obliczeniowe tworzą wyniki czynnikowe przy użyciu bardziej wyrafinowanych i technicznych metod. Są one dokładniejsze i bardziej złożone niż nierafinowane metody i zapewniają oszacowania, które są ustandaryzowanymi wynikami.
Moim zdaniem, jeśli celem jest stworzenie skali, która może być używana w badaniach i ustawieniach, wówczas sensowna jest prosta suma lub średni wynik wszystkich elementów skali. Powiedzmy jednak, że celem jest ocena efektów terapeutycznych programu, a istotny kontrast występuje w próbie - leczenie w porównaniu z grupą kontrolną. Czy jest jakiś powód, dla którego moglibyśmy preferować wyniki czynnikowe niż skalować sumy lub średnie?
Aby być konkretnym na temat alternatyw, weź ten prosty przykład:
library(lavaan)
library(devtools)
# read in data from gist ======================================================
# gist is at https://gist.github.com/ericpgreen/7091485
# this creates data frame mydata
gist <- "https://gist.github.com/ericpgreen/7091485/raw/f4daec526bd69557874035b3c175b39cf6395408/simord.R"
source_url(gist, sha1="da165a61f147592e6a25cf2f0dcaa85027605290")
head(mydata)
# v1 v2 v3 v4 v5 v6 v7 v8 v9
# 1 3 4 3 4 3 3 4 4 3
# 2 2 1 2 2 4 3 2 1 3
# 3 1 3 4 4 4 2 1 2 2
# 4 1 2 1 2 1 2 1 3 2
# 5 3 3 4 4 1 1 2 4 1
# 6 2 2 2 2 2 2 1 1 1
# refined and non-refined factor scores =======================================
# http://pareonline.net/pdf/v14n20.pdf
# non-refined -----------------------------------------------------------------
mydata$sumScore <- rowSums(mydata[, 1:9])
mydata$avgScore <- rowSums(mydata[, 1:9])/9
hist(mydata$avgScore)
# refined ---------------------------------------------------------------------
model <- '
tot =~ v1 + v2 + v3 + v4 + v5 + v6 + v7 + v8 + v9
'
fit <- sem(model, data = mydata, meanstructure = TRUE,
missing = "pairwise", estimator = "WLSMV")
factorScore <- predict(fit)
hist(factorScore[,1])
źródło
They are more exact
Ten dodatkowy nacisk nie powinien odwracać uwagi od faktu, że nawet wyniki czynników są nieuchronnie niedokładne („niedookreślone”)."more exact"
. Spośród liniowo obliczonych wyników czynnikowych metoda regresji jest najbardziej „dokładna” w sensie „najbardziej skorelowana z nieznanymi prawdziwymi wartościami czynników”. Tak więc, bardziej dokładne (w ramach liniowego podejścia algebraicznego), ale nie do końca dokładne.Odpowiedzi:
Sam zmagałem się z tym pomysłem w niektórych bieżących projektach. Myślę, że musisz zadać sobie pytanie, co jest tutaj szacowane. Jeśli pasuje model jednoczynnikowy, to oceny czynnikowe szacują czynnik ukryty. Prosta suma lub średnia twoich zmiennych przejawia się w oszacowaniu czegoś innego, chyba że każda obserwacja obciąża czynnik równo, a niepowtarzalność jest również taka sama. I to coś innego prawdopodobnie nie jest przedmiotem wielkiego zainteresowania teoretycznego.
Jeśli więc pasuje model jednoskładnikowy, prawdopodobnie dobrze jest wykorzystać wyniki czynnikowe. Rozumiem twój punkt widzenia na temat porównywalności między badaniami, ale myślę, że w ramach jednego badania wyniki czynników mają wiele do powiedzenia.
Interesujące staje się to, gdy model jednoczynnikowy nie pasuje, albo dlatego, że stosuje się model dwuskładnikowy (lub wyższy), albo dlatego, że struktura kowariancji jest bardziej skomplikowana niż przewiduje model czynnikowy. Dla mnie pytanie brzmi: czy prosta suma zmiennych odnosi się do czegoś rzeczywistego. Jest to szczególnie prawdziwe, jeśli dane mają więcej niż jeden wymiar. W praktyce często zdarza się, że masz wiele powiązanych ze sobą zmiennych (być może pozycje w ankiecie), przy czym jedna lub dwie z nich różnią się znacznie od innych. Możesz powiedzieć „do piekła z tym” i wziąć średnią wszystkiego, bez względu na to, co to znaczy. Lub możesz przejść z wynikami czynnikowymi. Jeśli dopasujesz model jednoczynnikowy, zwykle dzieje się tak, że analiza czynnikowa obniży wartość mniej użytecznych zmiennych (a przynajmniej tych zmiennych, które naprawdę należą do wyniku drugiego czynnika). W efekcie wykrywa je jako należące do innego wymiaru i ignoruje je.
Uważam więc, że wynik czynnikowy może w pewnym stopniu przyciąć dane, aby uzyskać coś bardziej jednowymiarowego niż na początku. Ale nie mam na to odniesienia i wciąż próbuję wymyślić w mojej własnej pracy, czy podoba mi się to podejście. Dla mnie wielkim niebezpieczeństwem jest zbyt duże przerzucanie wyników do innego modelu z tymi samymi danymi. Wyniki są już odpowiedzią na pytanie optymalizacyjne, więc gdzie to pozostawia resztę analizy? Nienawidzę myśleć.
Ale czy na koniec dnia suma lub suma zmiennych rzeczywiście ma sens, jeśli coś takiego jak model jednoskładnikowy nie ma zastosowania?
Wiele z tych pytań nie powstałoby, gdyby ludzie zaprojektowali na początek lepsze skale.
źródło
one-factor model
. Zastanawiam się tylko dlaczego. Czy mówisz, że w modelu 2-czynnikowym wyniki czynnikówestimate the latent factor
już nie są ? Dlaczego tak? A także, w jaki sposób definiujecie „model jednoskładnikowy” w kontekście opracowywanego kwestionariusza (prawdopodobny kontekst Q): czy kwestionariusz jest jednoczynnikowy / skalowany, czy też każdy uwzględniony element jest liczony jako należący ściśle do jednego czynnika /skala? Czy mógłbyś to wyjaśnić?Sumowanie lub uśrednianie elementów ładowanych przez wspólny czynnik jest tradycyjnym sposobem obliczania wyniku dla konstruktu (konstrukcja reprezentująca ten czynnik). Jest to najprostsza wersja „grubej metody” obliczania współczynników obliczeniowych ; główny punkt metody polega na wykorzystaniu ładunków czynnikowych jako wag punktowych. Podczas gdy wyrafinowane metody obliczania wyników wykorzystują specjalnie oszacowane współczynniki wyników (obliczone na podstawie obciążeń) jako wagi.
Ta odpowiedź nie „powszechnie sugeruje, kiedy należy zastosować [wyrafinowane] oceny czynnikowe w porównaniu z zwykłą sumą wyników punktowych”, co jest ogromną dziedziną, ale skupia się na pokazaniu pewnych konkretnych oczywistych implikacji związanych z preferowaniem jednego sposobu liczenia konstruktu nad drugim droga.
Rozważ prostą sytuację z pewnym współczynnikiem i dwoma ładowanymi przez niego elementami. Zgodnie z przypisem 1 tutaj wyjaśniając, jak współczynnik regresji wyniki obliczane są współczynniki zdobędzie czynnik b 1 i b 2 do obliczania współczynnika wyniki z F pochodzą zfa b1 b2) fa
,s1= b1r11+ b2)r12
,s2)= b1r12+ b2)r22
gdzie i s 2 są korelacjami między współczynnikiem a pozycjami - ładunki czynnikowe; r 12 to korelacja między pozycjami. W b współczynniki są co odróżnić wyniki od prostych czynników, nieważoną sumę wyników poz. Gdy bowiem obliczasz tylko sumę (lub średnią), celowo ustawiasz oba b s na równe. Podczas gdy w „wyrafinowanych” wynikach czynnikowych b s pochodzą z powyższych równań i zwykle nie są równe.s1 s2) r12 b b b
Dla uproszczenia, a ponieważ analiza czynnikowa jest często przeprowadzana na korelacjach, weźmy jako korelacje, a nie kowariancje. Następnie r 11 i r 22 są jednostkami i można je pominąć. Następnie,r r11 r22
,b1= s2)r12- s1r2)12- 1
,b2)= s1r12- s2)r2)12- 1
stądb1- b2)= - ( r12+ 1 ) ( s1- s2))r2)12- 1.
Jesteśmy zainteresowani tym, jak ten potencjał nierówność między s zależy od nierówności Wśród obciążeniach s s i korelacji R 12 . Funkcja b 1 - b 2 jest pokazana poniżej na wykresie powierzchniowym, a także na wykresie mapy cieplnej.b s r12 b1- b2)
do. Jeśli są silnie skorelowane, słabiej załadowany przedmiot jest młodszym duplikatem drugiego. Jaki jest powód, aby liczyć ten słabszy wskaźnik / objaw w obecności jego silniejszego substytutu? Bez większego powodu. I dopasowują się do tego współczynniki czynników (podczas gdy proste sumowanie nie). Zauważ, że w kwestionariuszu wieloczynnikowym „słabiej załadowany przedmiot” jest często przedmiotem innego czynnika, ładowanym tam wyżej; podczas gdy w obecnym czynniku ten element zostaje ograniczony, jak widzimy teraz, w obliczaniu wyników czynników, - i to dobrze to służy.
b. Ale jeśli przedmioty, choć ładowane jak poprzednio nierównomiernie, nie korelują tak silnie, to są dla nas różnymi wskaźnikami / objawami. I można je policzyć „dwa razy”, tj. Po prostu zsumowane. W tym przypadku oceny czynnikowe starają się uszanować słabszy element w zakresie, w jakim jego ładowanie wciąż pozwala, ponieważ jest to inny przykład wykonania współczynnika.
za. Dwa elementy można również policzyć dwukrotnie, tzn. Po prostu zsumować, ilekroć mają one podobne, wystarczająco wysokie ładunki według współczynnika, bez względu na korelację między tymi elementami. (Oceny czynnikowe zwiększają wagę obu przedmiotów, gdy nie są zbyt mocno skorelowane, jednak wagi są równe.) Wydaje się, że nie jest nieuzasadnione, że zwykle tolerujemy lub dopuszczamy dość powielone przedmioty, jeśli wszystkie są mocno obciążone. Jeśli ci się to nie podoba (czasem możesz) możesz zawsze ręcznie usunąć duplikaty z tego czynnika.
Zatem przy obliczaniu (udoskonalonych) wyników czynnikowych (przynajmniej metodą regresji) widoczne są intrygi „ dogadaj się / wypychaj” wśród zmiennych tworzących konstrukt, w ich wpływie na wyniki . Równie silne wskaźniki tolerują się nawzajem, tak jak robią to również niespójnie silne, niezbyt skorelowane wskaźniki. Występuje „zamknięcie” słabszego wskaźnika silnie skorelowanego z silniejszymi wskaźnikami. Proste dodawanie / uśrednianie nie ma intrygi „wypychania słabych duplikatów”.
Zobacz także tę odpowiedź, która teoretycznie ostrzega przed tym czynnikiem, a jest raczej „esencją wewnątrz” niż dużą kolekcją lub stertą „jego” zjawisk indykatywnych. Dlatego ślepe sumowanie przedmiotów - nie biorąc pod uwagę ich ładunków ani korelacji - jest potencjalnie problematyczne. Z drugiej strony czynnik, zgodnie z punktacją, może być tylko pewnego rodzaju sumą jego elementów, a więc wszystko polega na lepszej koncepcji wag sumy.
Rzućmy też okiem na brak metody zgrubnej lub sumowania bardziej ogólnie i abstrakcyjnie .
źródło
Use "validated" scales
nie wymaga koniecznie prostych sum: jeśli walidacja była dobra (reprezentatywna duża próba, dobre korelacje, prawidłowa liczba czynników, dobre dopasowanie itp.), obliczone wyniki czynników (ich współczynniki) można przyjąć jako normatywne wagi do zastosowania w nowych populacjach. Pod tym względem nie widzę żadnej korzyści w prostej kwocie.