Porównywanie współczynników zapadalności

9

Chcę porównać do częstości występowania między dwiema grupami (jedną bez choroby i drugą z).

Planowałem obliczyć współczynnik częstości występowania (IRR), tj. Wskaźnik częstości występowania grupy B / wskaźnik częstości występowania grupy A, a następnie sprawdzić, czy wskaźnik ten wynosi 1, i na koniec obliczyć przedziały 95% CI dla IRR.

Znalazłem metodę obliczania 95% CI w książce (Rosner's Fundamentals of Biostatistics ):

exp[log(IRR)±1,96(1/za1)+(1/za2))]

gdzie i to liczba zdarzeń. Ale to przybliżenie jest ważne tylko dla wystarczająco dużych próbek i myślę, że liczba zdarzeń, które mam, jest zbyt mała (być może dla całkowitego porównania jest w porządku.)za1za2)

Myślę więc, że powinienem użyć innej metody.

Używam R i pakietu ścisłego i stwierdziłem, że mógłbym użyć poisson.test(). Ale ta funkcja ma 3 metody definiowania dwustronnych wartości p: centralna, podobna do min i blaker.

Więc moje pytania to:

  1. Czy poprawne jest porównanie dwóch współczynników zapadalności za pomocą testu do porównania współczynników Poissona?

  2. Kiedy używana jest funkcja poisson.test w R z pakietu ścisłego, jaka metoda jest najlepsza?

Winieta dla exactci mówi:

centralny: jest 2 razy większy niż jednostronne wartości p ograniczone powyżej 1. Nazwa „centralna” jest motywowana powiązanymi interwałami inwersji, które są interwałami centralnymi, tzn. gwarantują, że prawdziwy parametr ma mniej niż Prawdopodobieństwo jest mniejsze (więcej) niż dolny (górny) ogon przedziału ufności 100 (1- )%. Hirji (2006) nazywa to TST (metoda podwójnego mniejszego ogona).α/2)α

minlike: jest sumą prawdopodobieństw wyników o prawdopodobieństwach mniejszych lub równych zaobserwowanemu prawdopodobieństwu. Nazywa się to metodą PB (opartą na prawdopodobieństwie) autorstwa Hirji (2006).

blaker: łączy prawdopodobieństwo mniejszego obserwowanego ogona z najmniejszym prawdopodobieństwem przeciwnego ogona, który nie przekracza obserwowanego prawdopodobieństwa ogona. Nazwę „blaker” motywuje Blaker (2000), który kompleksowo bada powiązaną metodę przedziałów częstotliwości. Hirji (2006) nazywa to metodą CT (łączony ogon).

Moje dane to:

Group A: 
Age group 1: 3 cases    in 10459 person yrs.   Incidence rate: 0.29 
Age group 2: 7 cases    in 2279 person yrs.    Incidence rate: 3.07
Age group 3: 4 cases    in 1990 person yrs.    Incidence rate: 2.01
Age group 4: 9 cases    in 1618 person yrs.    Incidence rate: 5.56
Age group 5: 11 cases   in 1357 person yrs.    Incidence rate: 8.11
Age group 6: 11 cases   in 1090 person yrs.    Incidence rate: 10.09
Age group 7: 9 cases    in 819 person yrs.     Incidence rate: 10.99
  Total:    54 cases in 19612 person yrs.      Incidence rate: 2.75

Group B: 
Age group 1: 3 cases    in 3088 person yrs.   Incidence rate: 0.97 
Age group 2: 1 cases    in 707 person yrs.    Incidence rate: 1.41
Age group 3: 2 cases    in 630 person yrs.    Incidence rate: 3.17
Age group 4: 6 cases    in 441 person yrs.    Incidence rate: 13.59
Age group 5: 10 cases   in 365 person yrs.    Incidence rate: 27.4
Age group 6: 6 cases   in 249 person yrs.    Incidence rate: 24.06
Age group 7: 0 cases    in 116 person yrs.     Incidence rate: 0
  Total:    28 cases in 5597 person yrs.      Incidence rate: 5.0
Edwin
źródło

Odpowiedzi:

2

Kilka myśli:

Po pierwsze, sugerowane porównanie - współczynnik częstości incydentów między A i B - obecnie nie jest uwarunkowane żadnymi współzmiennymi. Co oznacza, że ​​twoja liczba zdarzeń wynosi 54 dla grupy A i 28 dla grupy B. To więcej niż wystarcza, aby przejść do zwykłych metod przedziałów ufności opartych na dużej próbce.

Po drugie, nawet jeśli zamierzasz dostosować się do wpływu wieku, zamiast obliczać współczynnik dla każdej grupy, możesz lepiej skorzystać z metody regresji. Zasadniczo, jeśli stratyfikujesz na wielu poziomach zmiennej, staje się ona dość kłopotliwa w porównaniu do równania regresji, co dałoby ci stosunek współczynników A i B przy jednoczesnym kontrolowaniu wieku. Wierzę, że standardowe metody będą nadal działać dla twojej wielkości próby, ale jeśli martwisz się tym, możesz użyć czegoś takiego jak glmperm .

Fomite
źródło
1

Częstość występowania każdej grupy w twoich danych jest tylko średnią sumy niezależnych zmiennych Bernoulliego (0/1) - każdy pacjent ma swoją zmienną otrzymującą wartość 0 lub 1, sumujesz je i bierzesz średnią, która to wskaźnik zapadalności.

I duże próbki (a twoja próbka jest duża), średnia będzie rozkładana normalnie, więc możesz użyć prostego testu Z, aby sprawdzić, czy dwie szybkości są różne, czy nie.

W R, spójrz na prop.test: http://stat.ethz.ch/R-manual/R-pched/library/stats/html/prop.test.html

Jeśli chcesz w pełni wykorzystać dane, spróbuj sprawdzić, czy rozkład częstości występowania jest różny w grupie A i B. W tym celu wystarczy test niezależności, taki jak chi-kwadrat G -test: http://udel.edu/~mcdonald/statchiind.html

Ron
źródło
0

Jedynym sposobem, aby upewnić się, że próbka jest wystarczająco duża (lub, jak ująłby to Charlie Geyer - że faktycznie znajdujesz się na lądzie asymtopii ), jest wykonanie dużej ilości symulacji Monte-Carlo lub, jak sugerował EpiGard, użycie czegoś takiego jak glmperm.

Jeśli chodzi o to, która metoda jest najdokładniejsza, nie ma tutaj najlepszej - lub jak to ujął Fisher

Najlepsze na co?

Michael Fay udziela tutaj pewnych wyjaśnień

phaneron
źródło