Skaluj zmienną jako dane zliczania - poprawne czy nie?

10

W tym artykule (bezpłatnie dostępnym za pośrednictwem centralnej PubMed) autorzy wykorzystują ujemną regresję dwumianową do modelowania wyniku na 10-elementowym instrumencie przesiewowym z wynikiem 0–40. Ta procedura zakłada dane zliczania, co oczywiście nie ma miejsca w tym przypadku. Chciałbym poznać twoje opinie na temat tego, czy takie podejście jest dopuszczalne, ponieważ czasami używam tego samego lub podobnych instrumentów w mojej pracy. Jeśli nie, chciałbym wiedzieć, czy istnieją jakieś akceptowalne alternatywy. Więcej szczegółów poniżej:

Zastosowaną skalą jest Test Identyfikujący Zaburzenia Alkoholu (AUDIT), 10-elementowy kwestionariusz zaprojektowany jako narzędzie sprawdzające pod kątem zaburzeń spożywania alkoholu i picia niebezpiecznego / szkodliwego. Instrument jest oceniany od 0 do 40, a wyniki są zwykle mocno pochylone w lewo.

Według mojego zrozumienia, użycie danych zliczania zakłada, że ​​wszystkie „zliczone” wartości są od siebie niezależne - pacjenci przychodzą na oddział ratunkowy każdego dnia, liczba ofiar śmiertelnych w określonej grupie itp. - wszyscy są od siebie niezależni, choć zależy od zmiennych podstawowych. Co więcej, myślę, że nie może istnieć maksymalna dozwolona liczba przy użyciu danych zliczania, chociaż uważam, że to założenie może zostać złagodzone, gdy teoretyczne maksimum jest bardzo wysokie w porównaniu do obserwowanego maksimum w danych?

Korzystając ze skali AUDIT, nie mamy prawdziwej liczby. Mamy 10 pozycji z maksymalnym łącznym wynikiem 40, chociaż te wysokie wyniki rzadko są widoczne w praktyce. Punkty na przedmiotach są naturalnie skorelowane ze sobą.

Założenia wymagane do korzystania z danych zliczanych są zatem naruszane. Ale czy jest to nadal akceptowalne podejście? Jak poważne są naruszenia założeń? Czy istnieją pewne okoliczności, w których takie podejście można uznać za bardziej akceptowalne? Czy są jakieś alternatywy dla tego podejścia, które nie obejmują sprowadzania zmiennej skalowanej do kategorii?

JonB
źródło

Odpowiedzi:

4

Instrument AUDIT ma zasadniczo skalę Likerta. Zestaw pytań (elementy Likerta), z odpowiedziami często w pięciostopniowej skali, został zaprojektowany, aby uzyskać odpowiedź na pewne podstawowe zjawisko. Suma odpowiedzi na zestaw pytań, skala Likerta, jest następnie wykorzystywana jako miara leżącego u podstaw zjawiska. Chociaż przedmioty Likerta są często w skali od „zdecydowanie się zgadzam” do „zdecydowanie się zgadzam”, aplikacja do mierzenia tendencję do „ lcohol U se D isorders” w tym „ I dentification T est” jest proste.

Jak zauważono na stronie Wikipedii w skali Likerta: „To, czy poszczególne pozycje Likerta można uznać za dane przedziałowe, czy też należy je traktować jako uporządkowane dane kategorialne, jest przedmiotem znacznego sporu w literaturze, z silnym przekonaniem o tym, jakie są najbardziej odpowiednie metody ”. Ten spór prawdopodobnie pochodzi z ponad 80 lat, odkąd Likert po raz pierwszy zaproponował skalę: czy każdy krok wzdłuż skali jest równoważny, zarówno w obrębie elementów, jak i między nimi, które składają się na skalę? Problem został rozwiązany w Cross Validated, ponieważ w odpowiedziach na to pytanie jedno z pierwszych pytań zadanych na tej stronie.

Jeśli zaakceptujesz pomysł, że skala ma kroki, które są jednolite (lub wystarczająco blisko, aby ujednolicić dla danej aplikacji, być może uśrednione przez dodanie 10 różnych pozycji, jak w AUDIT), wówczas możliwe jest kilka podejść do analizy. Jednym z nich jest rozważenie odpowiedzi na skali jako serii kroków wybranych lub nie wybranych w celu przesunięcia w górę skali, z takim samym prawdopodobieństwem przesunięcia w górę każdego z kroków.

Pozwala to myśleć o „ n-punktowej skali skali Likerta jako n próbach z procesu dwumianowego ”, jak w pytaniu z 2010 r. Autorstwa @MikeLawrence. Chociaż odpowiedzi na to pytanie nie były zbytnio uzasadnione dla tego pomysłu, nie było trudno szybko znaleźć dziś badanie z 2014 r., W którym z powodzeniem zastosowano i rozszerzono to podejście do rozróżnienia subpopulacji o różnych prawdopodobieństwach dwumianowych. Chociaż do modelowania danych często stosuje się proces dwumianowy, można go zatem wykorzystać do modelowania liczby kroków, które dana osoba podjęła w skali „Zaburzeń spożywania alkoholu”.

Jak zauważył @Scortchi w odpowiedzi na pytanie połączone w akapicie drugim, ograniczenie modelu dwumianowego polega na tym, że narzuca on szczególny związek między średnią a wariancją odpowiedzi. Te negatywne dwumianowy usuwa to ograniczenie, z utratą łatwej interpretacji dostarczonych przez proste dwumianowego modelu. W analizie dodatkowy parametr, który należy dopasować, zużywa tylko jeden dodatkowy stopień swobody. Natomiast próba określenia różnych prawdopodobieństw dla każdego z 40 kroków przedmiotu Likerta i ich sumy w skali Likerta byłaby zniechęcająca.

Jak zauważył @MatthewGraves w swojej odpowiedzi na to pytanie, na to, czy ujemny model dwumianowy jest odpowiedni, najlepiej odpowiedzieć, badając pozostałości. W pierwotnym badaniu, w którym opracowano AUDIT, wartość 8 lub więcej w 40-punktowej skali miała dość rozsądną specyficzność i czułość do rozróżnienia osób zdiagnozowanych jako „niebezpieczne lub szkodliwe spożywanie alkoholu” w 6 różnych krajach. Być może lepszy byłby dwumianowy model dwumianowy oparty na populacjach wysokiego i niskiego ryzyka, podobny do powyższego badania z 2014 r.

Zainteresowani AUDIT powinni dokładnie zbadać to oryginalne badanie. Na przykład, chociaż zapotrzebowanie na poranny napój może wydawać się mierzyć coś zupełnie innego niż częstotliwość picia, jak przypuszczał @SeanEaster, poranne picie ma średnią ważoną korelację wynoszącą 0,73 ze skalą miar spożycia alkoholu. (Ten wynik nie jest zaskakujący dla kogoś, kto miał przyjaciół z zaburzeniami spożywania alkoholu). AUDIT wydaje się być dobrym przykładem kompromisów potrzebnych do opracowania instrumentu, który mógłby być niezawodnie stosowany w wielu kulturach.

EdM
źródło
Dziękuję za dobrą odpowiedź. Kiedy patrzę na moje własne dane AUDIT ponad 20000 osób, kształt wygląda blisko ujemnego rozkładu dwumianowego, więc może być rozsądne zastosować to założenie dystrybucyjne, czy może można zastosować model quasi-poissona? Jeśli zastosujemy rozkład dwumianowy, uznając punkty za k sukcesów z 40 prób bernoulli, czy nie będziemy mieli poważnego problemu z nadmierną dyspersją? Tak wygląda moje dane. Czy quasi-dwumian może być alternatywą?
JonB
Wiele zależy od tego, dlaczego modelujesz wyniki 0–40 AUDIT oraz od interpretacji heurystycznej, którą chcesz umieścić na wynikach. Jeśli wszystko, czego potrzebujesz, to relacja wyników AUDIT do innych zmiennych, z jedynie ograniczoną interpretacją samych wartości parametrów rozkładu, zastosuj rozkład zapewniający dobrze zachowane wartości resztkowe; twoje sugestie są rozsądne. Dopasowanie pojedynczego dwumianu do danych jest problematyczne, ale mieszanka dwóch dwumianów (grup wysokiego i niskiego ryzyka) z różnymi wartościami p może być pouczająca. Skorzystaj z osądu opartego na wiedzy na dany temat.
EdM,
2

x=40x40

Ogólnie rzecz biorąc, różne smaki regresji mają różne priorytety parametrów (tj. Regularyzacji) i różne modele hałasu. Standardowa regresja najmniejszych kwadratów ma model szumu Gaussa, ujemna regresja dwumianowa ma ujemny model szumu dwumianowego i tak dalej. Prawdziwym testem, czy model regresji jest odpowiedni, jest to, czy hałas resztkowy ma oczekiwany rozkład.

Możesz więc zastosować ujemną regresję dwumianową do swoich danych, obliczyć resztki, a następnie wykreślić je na ujemnym dwumianowym wykresie prawdopodobieństwa i dowiedzieć się, czy model jest odpowiedni. Jeśli szum jest skonstruowany w inny sposób, musimy poszukać modelu szumu, który bardziej pasuje do tej struktury.

Rozumowanie od modelu generatywnego do struktury szumu jest pomocne - jeśli wiemy, że dane są multiplikatywne zamiast addytywne, na przykład sięgamy do logarytmu normalnego zamiast normalnego - ale jeśli oczekiwany model generatywny i struktura szumu się nie zgadzają, idź z danymi, a nie oczekiwaniami.

Matthew Graves
źródło
Co ciekawe, nie wiedziałem, że wydarzenia mogą być „zaraźliwe”. Co masz na myśli, zastępując x = 40 x> = 40, w praktyce? Jak wykonać ujemny dwumianowy wykres prawdopodobieństwa w R? Przypuszczam, że nie masz na myśli resztek wykresu względem dopasowanych wartości? Czy masz na myśli fabułę QQ?
JonB
@JonB Załóżmy, że masz ujemny dwumian z r = 1 i prawdopodobieństwem sukcesu p = 0,9. Prawdopodobieństwo przeżycia 40 prób wynosi dokładnie 0,148%; prawdopodobieństwo przetrwania 40 lub więcej prób wynosi 1,48%. Można więc zdefiniować dobrze ukształtowane prawdopodobieństwo w domenie [0,40], stosując ujemny dwumian dla [0,39], a następnie ustawiając [40] tak, aby sumował się do jednego, który ponieważ ujemny rozkład dwumianowy jest dobrze powstaje prawdopodobieństwo, że wynosi 40 lub więcej.
Matthew Graves
@JonB Dokładnie, mam na myśli spisek QQ. Nie robiłem tego wcześniej w R, ale mam nadzieję, że ten link pomoże.
Matthew Graves
1
Przeprowadziłem eksperyment na niektórych danych z wynikami AUDIT. Podczas tworzenia wykresu qq muszę utworzyć losowy wektor wyników z ujemnego rozkładu dwumianowego. Mu / theta podaje mój model regresji, ale skąd mam wiedzieć, jakiego „rozmiaru” użyć? Przykro mi, jeśli jest to pytanie specyficzne dla R. W każdym razie, czy masz jakieś miłe odniesienie, które mogę przeczytać więcej o stosowaniu ujemnego dwumianu (i innych rozkładów) do tego rodzaju skal zbudowanych przez zsumowanie kilku elementów, które mierzą rodzaj tego samego procesu?
JonB
Przeprowadziłem teraz dodatkowe eksperymenty. Symulowałem zestaw danych z dwiema zmiennymi: xiy. 50% to x = 0, 50% to x = 1. Ci, którzy są x = 0, mają prawdopodobieństwo 0,2 dla y = 1, a ci, którzy są x = 1, mają prawdopodobieństwo 0,4 dla y = 1. Następnie przeprowadziłem regresję logistyczną i spojrzałem na pozostałości. Nie wyglądają wcale na dwumianowe. W rzeczywistości przyjmują one (4) 4 konkretne wartości. Czy jesteś pewien, że wzór resztkowy powinien zawsze pasować do założenia dystrybucyjnego? Ponieważ w tym przypadku jest to oczywiście błędne.
JonB