Badacz chce opracować połączoną analizę kilku zestawów danych. W niektórych zestawach danych istnieją sparowane obserwacje dla leczenia A i B. W innych są niesparowane dane A i / lub B. Szukam odniesienia do dostosowania testu t lub testu współczynnika prawdopodobieństwa dla takich częściowo sparowanych danych. Jestem gotów (na razie) założyć normalność z jednakową wariancją i że średnie populacji dla A są takie same dla każdego badania (i podobnie dla B).
hypothesis-testing
t-test
paired-data
change-scores
Frank Harrell
źródło
źródło
Odpowiedzi:
Guo i Yuan sugerują alternatywną metodę zwaną optymalnym połączonym testem t pochodzącym z Samawi i zbiorczego testu t Vogela.
Link do odniesienia: http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.865.734&rep=rep1&type=pdf
Świetny odczyt z wieloma opcjami dla tej sytuacji.
Nowość w komentowaniu, więc daj mi znać, jeśli będę musiał coś jeszcze dodać.
źródło
Cóż, jeśli znasz rozbieżności w parach niesparowanych i sparowanych (które ogólnie byłyby znacznie mniejsze), optymalnymi wagami dla dwóch oszacowań różnicy w grupach średnich byłyby wagi odwrotnie proporcjonalne do wariancji osobnika szacunki różnicy średnich.
[Edycja: okazuje się, że przy szacowaniu wariancji nazywa się to estymatorem Graybill-Deal. Było na ten temat sporo artykułów. Oto jeden]
Konieczność oszacowania wariancji powoduje pewne trudności (wynikowy stosunek szacunków wariancji wynosi F, i myślę, że uzyskane masy mają rozkład beta, a wynikowa statystyka jest dość skomplikowana), ale ponieważ rozważasz bootstrapping, może to być mniej obaw.
Alternatywną możliwością, która może być w pewnym sensie ładniejsza (lub przynajmniej trochę bardziej odporna na nienormalność, ponieważ gramy ze współczynnikami wariancji) przy bardzo niewielkiej utracie wydajności na normalnym poziomie, jest oparcie łącznej oceny przesunięcia sparowane i niesparowane testy rangowe - w każdym przypadku rodzaj szacunku Hodgesa-Lehmanna, w niesparowanym przypadku opartym na medianach różnic między próbami parami oraz w sparowanym przypadku od median średnich średnich par. Ponownie, minimalna ważona wariancją liniowa kombinacja tych dwóch będzie miała wagi proporcjonalne do odwrotności wariancji. W takim przypadku prawdopodobnie skłaniam się ku permutacji (/ randomizacji) zamiast bootstrapu - ale w zależności od tego, jak zaimplementujesz bootstrap, mogą skończyć w tym samym miejscu.
W obu przypadkach możesz chcieć wzmocnić swoje wariancje / zmniejszyć współczynnik wariancji. Dostanie się do właściwego boiska do wagi jest dobre, ale normalnie stracisz bardzo małą wydajność, czyniąc go nieco solidnym. ---
Kilka dodatkowych myśli, których wcześniej wyraźnie nie uporządkowałem:
Ten problem ma wyraźne podobieństwo do problemu Behrensa-Fishera, ale jest jeszcze trudniejszy.
Gdybyśmy ustalili wagi, moglibyśmy po prostu uderzyć w przybliżeniu typu Welch-Satterthwaite; struktura problemu jest taka sama.
Naszym problemem jest to, że chcemy zoptymalizować wagi, co faktycznie oznacza, że waga nie jest ustalona - i rzeczywiście dąży do maksymalizacji statystyki (przynajmniej w przybliżeniu i prawie w dużych próbkach, ponieważ każdy zestaw wag jest losową wielkością szacującą to samo licznik, a my staramy się zminimalizować mianownik; oba nie są niezależne).
Spodziewam się, że pogorszyłoby to przybliżenie chi-kwadrat i prawie na pewno wpłynęłoby jeszcze bardziej na wartość df przybliżenia.
[Jeśli problem ten jest możliwy do wykonania, może się okazać, że istnieje dobra zasada, która mówi: „możesz zrobić prawie równie dobrze, jeśli używasz tylko sparowanych danych w tych okolicznościach, tylko niesparowanych w tych innych zestawach warunki, a reszta, ten ustalony schemat masy jest zwykle bardzo zbliżony do optymalnego ”- ale nie wstrzymam oddechu, czekając na tę szansę. Taka reguła decyzyjna niewątpliwie miałaby pewien wpływ na prawdziwe znaczenie w każdym przypadku, ale jeśli ten efekt nie byłby tak duży, taka praktyczna zasada dałaby łatwy sposób korzystania z istniejącego oprogramowania, więc pożądane byłoby spróbuj zidentyfikować taką regułę dla użytkowników w takiej sytuacji.]
---
Edycja: Uwaga do siebie - Musisz wrócić i wypełnić szczegóły pracy nad testami „nakładających się próbek”, zwłaszcza t-testów nakładających się próbek
---
Przyszło mi do głowy, że test randomizacji powinien działać dobrze -
gdzie dane są sparowane, losowo permutujesz etykiety grup w parach
tam, gdzie dane są niesparowane, ale zakłada się, że mają wspólną dystrybucję (poniżej wartości zerowej), permutujesz przypisania grupowe
(Dodano znacznie później)
Ewentualnie odpowiedni papier:
Derrick, B., Russ B., Toher, D. i White, P. (2017),
„Statystyka testu dla porównania średnich dla dwóch próbek, które obejmują zarówno sparowane, jak i niezależne obserwacje”,
Journal of Modern Applied Methods Methods , maj Vol. 16, nr 1, 137-157.
doi: 10.22237 / jmasm / 1493597280
http://digitalcommons.wayne.edu/cgi/viewcontent.cgi?article=2251&context=jmasm
źródło
Oto kilka myśli. Po prostu doszedłem do wniosku Grega Snowa, że problem ten ma wyraźne podobieństwo do problemu Behrensa-Fishera . Aby uniknąć falowania rąk, najpierw wprowadzam pewne zapisy i formalizuję hipotezy.
każda obserwacja jest sumą efektu pacjenta i efektu leczenia. Odpowiednie zmienne losowe to
Kolejnym naturalnym krokiem jest rozważenie
W tym momencie myślę, że można podłączyć dowolne rozwiązanie problemu Behrensa Fishera, aby uzyskać rozwiązanie tego problemu.
źródło
Moją pierwszą myślą był model efektów mieszanych, ale zostało to już omówione, więc nie powiem nic więcej na ten temat.
Inną moją myślą jest to, że gdyby teoretycznie możliwe było zmierzenie sparowanych danych na wszystkich osobach, ale z powodu kosztów, błędów lub innego powodu, dla którego nie masz wszystkich par, możesz potraktować niezmierzony efekt dla niesparowanych osobników jako brakujące dane i korzystanie z narzędzi takich jak algorytm EM lub wielokrotne przypisywanie (brakujące losowo wydaje się uzasadnione, chyba że przyczyna, dla której badany był mierzony tylko w ramach 1 leczenia, była związana z tym, jaki byłby wynik w przypadku innego leczenia).
Jeszcze prostsze może być po prostu dopasowanie dwuwymiarowej normalnej do danych przy użyciu maksymalnego prawdopodobieństwa (z prawdopodobieństwem uwzględnionym na podstawie dostępnych danych na podmiot), a następnie wykonanie testu współczynnika wiarygodności porównującego rozkład ze średnimi równymi względem różnych średnich.
Minęło sporo czasu od moich zajęć teoretycznych, więc nie wiem, jak się je porównuje pod względem optymalności.
źródło
być może mieszane modelowanie z pacjentem jako przypadkowy efekt może być sposobem. Przy mieszanym modelowaniu można uwzględnić strukturę korelacji w sparowanym przypadku i częściowe braki w niesparowanym przypadku.
źródło
gls
funkcji wnlme4
pakiecie.Jedna z metod zaproponowanych w Hani M. Samawi i Robert Vogel (Journal of Applied Statistics, 2013) polega na ważeniu kombinacji wyników T z niezależnych i zależnych próbek w taki sposób, że nowy wynik T jest równy
źródło