Radzenie sobie z regresją niezwykle ograniczonej zmiennej odpowiedzi

11

Próbuję modelować zmienną odpowiedzi, która teoretycznie jest ograniczona między -225 a +225. Zmienna to łączny wynik uzyskany przez badanych podczas gry. Chociaż teoretycznie możliwe jest zdobycie przez uczestników +225 punktów. Pomimo tego, ponieważ wynik zależał nie tylko od działań podmiotów, ale także działań innych działań, maksymalna liczba zdobytych punktów wyniosła 125 (jest to najwyższa liczba 2 graczy, którzy grają ze sobą), zdarzyło się to z bardzo dużą częstotliwością. Najniższy wynik to +35.

Ta granica 125 powoduje trudności z regresją liniową. Jedyne, co mogę wymyślić, to przeskalowanie odpowiedzi, tak aby zawierała się w przedziale od 0 do 1 i użycie regresji beta. Jeśli to zrobię, nie jestem jednak pewien, czy naprawdę mogę usprawiedliwić stwierdzenie, że 125 jest górną granicą (lub 1 po transformacji), ponieważ można zdobyć +225. Co więcej, gdybym to zrobił, jaka byłaby moja dolna granica 35?

Dzięki,

Jonathan

Jonathan Bone
źródło
Jaka konkretna „trudność” wiąże się z regresją tych danych? (Nie będzie to spowodowane teoretycznymi granicami, ponieważ twoje dane nie są nigdzie w pobliżu. Prawdopodobnie błędem byłoby zastosowanie metody regresji, takiej jak regresja Beta, która zakłada, że ​​istnieją granice i szacujesz te granice na podstawie same dane. )
whuber

Odpowiedzi:

10

Chociaż nie jestem do końca pewien, na czym polega problem z regresją liniową, kończę teraz artykuł o tym, jak analizować ograniczone wyniki. Ponieważ nie znam regresji Beta, być może ktoś inny odpowie na tę opcję.

Po twoim pytaniu rozumiem, że masz prognozy poza granicami. W tym przypadku wybrałbym logistyczną regresję kwantową . Regresja kwantylowa jest bardzo zgrabną alternatywą dla regularnej regresji liniowej. Możesz patrzeć na różne kwantyle i uzyskać znacznie lepszy obraz swoich danych niż jest to możliwe przy zwykłej regresji liniowej. Nie ma również żadnych założeń dotyczących dystrybucji 1 .

Transformacja zmiennej może często wywoływać zabawny wpływ na regresję liniową, na przykład masz znaczenie w transformacji logistycznej, ale to nie przekłada się na wartość regularną. Nie jest tak w przypadku kwantyli, mediana jest zawsze medianą niezależnie od funkcji transformacji. Pozwala to na transformację tam iz powrotem bez zniekształcania czegokolwiek. Prof. Bottai zasugerował takie podejście do ograniczonych wyników 2 , jest to doskonała metoda, jeśli chcesz dokonywać indywidualnych prognoz, ale ma pewne problemy, gdy nie chcesz patrzeć na beta i interpretować je w sposób nielogiczny. Formuła jest prosta:

logit(y)=log(y+ϵmax(y)y+ϵ)

Gdzie jest twoim wynikiem, a jest dowolną małą liczbą.ϵyϵ

Oto przykład, który zrobiłem jakiś czas temu, kiedy chciałem z nim eksperymentować w R:

library(rms)
library(lattice)
library(cairoDevice)
library(ggplot2)

# Simulate some data
set.seed(10)
intercept <- 0
beta1 <- 0.5
beta2 <- 1
n = 1000
xtest <- rnorm(n,1,1)
gender <- factor(rbinom(n, 1, .4), labels=c("Male", "Female"))
random_noise  <- runif(n, -1,1)

# Add a ceiling and a floor to simulate a bound score
fake_ceiling <- 4
fake_floor <- -1

# Simulate the predictor
linpred <- intercept + beta1*xtest^3 + beta2*(gender == "Female") + random_noise

# Remove some extremes
extreme_roof <- fake_ceiling + abs(diff(range(linpred)))/2
extreme_floor <- fake_floor - abs(diff(range(linpred)))/2
linpred[ linpred > extreme_roof|
    linpred < extreme_floor ] <- NA

#limit the interval and give a ceiling and a floor effect similar to scores
linpred[linpred > fake_ceiling] <- fake_ceiling
linpred[linpred < fake_floor] <- fake_floor

# Just to give the graphs the same look
my_ylim <- c(fake_floor - abs(fake_floor)*.25, 
             fake_ceiling + abs(fake_ceiling)*.25)
my_xlim <- c(-1.5, 3.5)

# Plot
df <- data.frame(Outcome = linpred, xtest, gender)
ggplot(df, aes(xtest, Outcome, colour = gender)) + geom_point()

Daje to następujące rozproszenie danych, jak widać, jest wyraźnie ograniczone i niewygodne :

Rozproszenie ograniczonych danych

###################################
# Calculate & plot the true lines #
###################################
x <- seq(min(xtest), max(xtest), by=.1)
y <- beta1*x^3+intercept
y_female <- y + beta2
y[y > fake_ceiling] <- fake_ceiling
y[y < fake_floor] <- fake_floor
y_female[y_female > fake_ceiling] <- fake_ceiling
y_female[y_female < fake_floor] <- fake_floor

tr_df <- data.frame(x=x, y=y, y_female=y_female)
true_line_plot <- xyplot(y  + y_female ~ x, 
                         data=tr_df,
                         type="l", 
                         xlim=my_xlim, 
                         ylim=my_ylim, 
                         ylab="Outcome", 
                         auto.key = list(
                           text = c("Male"," Female"),
                           columns=2))

##########################
# Test regression models #
##########################

# Regular linear regression
fit_lm <- Glm(linpred~rcs(xtest, 5)+gender, x=T, y=T)
boot_fit_lm <- bootcov(fit_lm, B=500)
p <- Predict(boot_fit_lm, xtest=seq(-2.5, 3.5, by=.001), gender=c("Male", "Female"))
lm_plot <- plot(p, 
             se=T, 
             col.fill=c("#9999FF", "#BBBBFF"), 
             xlim=my_xlim, ylim=my_ylim)

Powoduje to następujący obraz, w którym kobiety wyraźnie znajdują się powyżej górnej granicy:

Regresja liniowa w porównaniu do linii rzeczywistej

# Quantile regression - regular
fit_rq <- Rq(formula(fit_lm), x=T, y=T)
boot_rq <- bootcov(fit_rq, B=500)
# A little disturbing warning:
# In rq.fit.br(x, y, tau = tau, ...) : Solution may be nonunique

p <- Predict(boot_rq, xtest=seq(-2.5, 3.5, by=.001), gender=c("Male", "Female"))
rq_plot <- plot(p, 
             se=T, 
             col.fill=c("#9999FF", "#BBBBFF"), 
             xlim=my_xlim, ylim=my_ylim)

Daje to następujący wątek z podobnymi problemami:

Regresja kwantowa w porównaniu do linii rzeczywistej

# The logit transformations
logit_fn <- function(y, y_min, y_max, epsilon)
    log((y-(y_min-epsilon))/(y_max+epsilon-y))


antilogit_fn <- function(antiy, y_min, y_max, epsilon)
    (exp(antiy)*(y_max+epsilon)+y_min-epsilon)/
        (1+exp(antiy))

epsilon <- .0001
y_min <- min(linpred, na.rm=T)
y_max <- max(linpred, na.rm=T)

logit_linpred <- logit_fn(linpred, 
                            y_min=y_min,
                            y_max=y_max,
                            epsilon=epsilon)

fit_rq_logit <- update(fit_rq, logit_linpred ~ .)
boot_rq_logit <- bootcov(fit_rq_logit, B=500)

p <- Predict(boot_rq_logit, 
             xtest=seq(-2.5, 3.5, by=.001), 
             gender=c("Male", "Female"))

# Change back to org. scale
# otherwise the plot will be
# on the logit scale
transformed_p <- p
transformed_p$yhat <- antilogit_fn(p$yhat,
                                    y_min=y_min,
                                    y_max=y_max,
                                    epsilon=epsilon)
transformed_p$lower <- antilogit_fn(p$lower, 
                                     y_min=y_min,
                                     y_max=y_max,
                                     epsilon=epsilon)
transformed_p$upper <- antilogit_fn(p$upper, 
                                     y_min=y_min,
                                     y_max=y_max,
                                     epsilon=epsilon)

logit_rq_plot <- plot(transformed_p, 
             se=T, 
             col.fill=c("#9999FF", "#BBBBFF"), 
             xlim=my_xlim)

Logistyczna regresja kwantylowa z bardzo ładną ograniczoną prognozą:

Logistyczna regresja kwantyli

Tutaj możesz zobaczyć problem z wersją Beta, który w przekształconej formie różni się w różnych regionach (zgodnie z oczekiwaniami):

# Some issues trying to display the gender factor
contrast(boot_rq_logit, list(gender=levels(gender), 
                             xtest=c(-1:1)), 
         FUN=function(x)antilogit_fn(x, epsilon))

   gender xtest Contrast   S.E.       Lower      Upper       Z      Pr(>|z|)
   Male   -1    -2.5001505 0.33677523 -3.1602179 -1.84008320  -7.42 0.0000  
   Female -1    -1.3020162 0.29623080 -1.8826179 -0.72141450  -4.40 0.0000  
   Male    0    -1.3384751 0.09748767 -1.5295474 -1.14740279 -13.73 0.0000  
*  Female  0    -0.1403408 0.09887240 -0.3341271  0.05344555  -1.42 0.1558  
   Male    1    -1.3308691 0.10810012 -1.5427414 -1.11899674 -12.31 0.0000  
*  Female  1    -0.1327348 0.07605115 -0.2817923  0.01632277  -1.75 0.0809  

Redundant contrasts are denoted by *

Confidence intervals are 0.95 individual intervals

Bibliografia

  1. R. Koenker i G. Bassett Jr, „Kwanty regresji”, Econometrica: Journal of Econometric Society, s. 33–50, 1978.
  2. M. Bottai, B. Cai i RE McKeown, „Logistyczna regresja kwantyli dla ograniczonych wyników”, Statistics in Medicine, vol. 29, nr 2, s. 309–317, 2010.

Dla ciekawskich działki zostały utworzone przy użyciu tego kodu:

# Just for making pretty graphs with the comparison plot
compareplot <- function(regr_plot, regr_title, true_plot){
  print(regr_plot, position=c(0,0.5,1,1), more=T)
  trellis.focus("toplevel")
  panel.text(0.3, .8, regr_title, cex = 1.2, font = 2)
  trellis.unfocus()
  print(true_plot, position=c(0,0,1,.5), more=F)
  trellis.focus("toplevel")
  panel.text(0.3, .65, "True line", cex = 1.2, font = 2)
  trellis.unfocus()
}

Cairo_png("Comp_plot_lm.png", width=10, height=14, pointsize=12)
compareplot(lm_plot, "Linear regression", true_line_plot)
dev.off()

Cairo_png("Comp_plot_rq.png", width=10, height=14, pointsize=12)
compareplot(rq_plot, "Quantile regression", true_line_plot)
dev.off()

Cairo_png("Comp_plot_logit_rq.png", width=10, height=14, pointsize=12)
compareplot(logit_rq_plot, "Logit - Quantile regression", true_line_plot)
dev.off()

Cairo_png("Scat. plot.png")
qplot(y=linpred, x=xtest, col=gender, ylab="Outcome")
dev.off()
Max Gordon
źródło
Ładne referencje, reg: beta regresja Sugeruję Smithson, M. and Verkuilen, J. (2006). A better lemon squeezer? maximum-likelihood regression with beta-distributed dependent variables. Psychological Methods, 11(1):54-71., DOI , PDF online . Ma podobną motywację do modelowania rozkładów z efektami podłogi / sufitu.
Andy W
@AndyW: Dzięki za referencje, nigdy nie spotkałem się z regresją beta, ale brzmi obiecująco.
Max Gordon,
@MaxGordon Czy wiesz, jak wdrożyć logistyczną regresję Quantile Ridge? Mam wiele funkcji ....
PascalVKooten
@ Dualność przepraszam, nie próbowałem tego.
Max Gordon
@PascalvKooten Nie sądzę, aby regresja kwantylowa była najlepszym wyborem, jeśli chcesz pracować z danymi o dużej funkcjonalności. Używam go częściej, gdy nie mam tak wielu funkcji, ale chcę lepiej poznać dane i kierować wynikami w różnych regionach.
Max Gordon