To pytanie uzupełniające z pytania, które zadałem kilka dni temu . Wydaje mi się, że kwestia ta jest inna, dlatego wymieniono nowe pytanie.
Pytanie brzmi: czy mogę porównać wielkość współczynników w różnych modelach z różnymi zmiennymi zależnymi? Na przykład na jednej próbie powiedz, że chcę wiedzieć, czy gospodarka jest silniejszym predyktorem głosów w Izbie Reprezentantów, czy dla Prezydenta. W tym przypadku moimi dwiema zmiennymi zależnymi byłyby głosowanie w Izbie (kod 1 dla Demokratów i 0 dla Republikanów) i głosowanie na Prezydenta (1 dla Demokratów i 0 dla Republikanów), a moją niezależną zmienną jest gospodarka. Oczekiwałbym statystycznie istotnego wyniku w obu biurach, ale jak mam ocenić, czy ma to „większy” efekt w jednym więcej niż w drugim? To może nie być szczególnie interesujący przykład, ale jestem ciekawy, czy istnieje sposób na porównanie. Wiem, że nie można po prostu spojrzeć na „wielkość” współczynnika. Więc, czy możliwe jest porównywanie współczynników w modelach z różnymi zmiennymi zależnymi? A jeśli tak, to jak to zrobić?
Jeśli coś z tego nie ma sensu, daj mi znać. Wszelkie porady i komentarze są mile widziane.
źródło
Odpowiedzi:
Krótka odpowiedź brzmi „tak, możesz” - ale powinieneś porównać maksymalne oszacowania wiarygodności (MLE) „dużego modelu” ze wszystkimi zmiennymi w obu modelach dopasowanych do obu.
Jest to „quasi-formalny” sposób na uzyskanie teorii prawdopodobieństwa, aby odpowiedzieć na twoje pytanie
W tym przykładzie i Y 2 są tego samego typu zmiennymi (ułamki / procenty), więc są porównywalne. Zakładam, że do obu pasuje ten sam model. Mamy więc dwa modele:Y1 Y2
l o g ( p 1 i
Masz więc hipotezę, którą chcesz ocenić:
I masz trochę danych oraz kilka wcześniejszych informacji (takich jak zastosowanie modelu logistycznego). Obliczasz prawdopodobieństwo:{Y1i,Y2i,Xi}ni=1
Teraz nie zależy od rzeczywistej wartości któregokolwiek z parametrów regresji, więc należy je usunąć poprzez marginalizację.H0
Hipoteza po prostu ogranicza zakres integracji, więc mamy:
Ponieważ prawdopodobieństwo jest uzależnione od danych, zostanie ono uwzględnione w dwóch osobnych elementach bocznych każdego modelu
Now because there is no direct links betweenY1i and α2,β2 , only indirect links through Xi , which is known, it will drop out of the conditioning in the second posterior. same for Y2i in the first posterior.
From standard logistic regression theory, and assuming uniform prior probabilities, the posterior for the parameters is approximately bi-variate normal with mean equal to the MLEs, and variance equal to the information matrix, denoted byV1 and V2 - which do not depend on the parameters, only the MLEs. so you have straight-forward normal integrals with known variance matrix. αj marginalises out with no contribution (as would any other "common variable") and we are left with the usual result (I can post the details of the derivation if you want, but its pretty "standard" stuff):
WhereΦ() is just the standard normal CDF. This is the usual comparison of normal means test. But note that this approach requires the use of the same set of regression variables in each. In the multivariate case with many predictors, if you have different regression variables, the integrals will become effectively equal to the above test, but from the MLEs of the two betas from the "big model" which includes all covariates from both models.
źródło
Why not? The models are estimating how much 1 unit of change in any model predictor will influence the probability of "1" for the outcome variable. I'll assume the models are the same-- that they have the same predictors in them. The most informative way to compare the relative magnitudes of any given predictor in the 2 models is to use the models to calculate (either deterministically or better by simulation) how much some meaningful increment of change (e.g., +/- 1 SD) in the predictor affects the probabilities of the respective outcome variables--& compare them! You'll want to determine confidence intervals for the two estimates as well as so you can satisfy yourself that the difference is "significant," practically & statistically.
źródło
I assume that by "my independent variable is the economy" you're using shorthand for some specific predictor.
At one level, I see nothing wrong with making a statement such as
@dmk38's recent suggestions look very helpful in this regard.
You might also want to standardize the coefficients to facilitate comparison.
At another level, beware of taking inferential statistics (standard errors, p-values, CIs) literally when your sample constitutes a nonrandom sample of the population of years to which you might want to generalize.
źródło
Let us say the interest lies in comparing two groups of people: those withX1=1 and those with X1=0 .
The exponential ofβ1 , the corresponding coefficient, is interpreted as the ratio of the odds of success for those with X1=1 over the odds of success for those with X1=0 , conditional on the other variables in the model.
So, if you have two models with different dependend variables then the interpretation ofβ1 changes since it is not conditioned upon the same set of variables. As a consequence, the comparison is not direct...
źródło