Problem
W regresji zwykle obliczany jest średni błąd kwadratu (MSE) dla próbki: aby zmierzyć jakość predyktora.
Obecnie pracuję nad problemem regresji, którego celem jest przewidzenie ceny, jaką klienci są skłonni zapłacić za produkt, biorąc pod uwagę szereg funkcji numerycznych. Jeśli przewidywana cena jest zbyt wysoka, żaden klient nie kupi produktu, ale strata pieniężna jest niska, ponieważ cenę można po prostu obniżyć. Oczywiście nie powinna być zbyt wysoka, ponieważ wtedy produktu nie można kupić przez długi czas. Z drugiej strony, jeśli przewidywana cena jest zbyt niska, produkt zostanie kupiony szybko, bez możliwości skorygowania ceny.
Innymi słowy, algorytm uczenia się powinien przewidywać nieco wyższe ceny, które w razie potrzeby mogą zostać obniżone, a nie niedoszacowanie prawdziwej ceny, co spowoduje natychmiastową stratę pieniężną.
Pytanie
Jak zaprojektowałbyś wskaźnik błędu uwzględniający tę asymetrię kosztów?
Możliwe rozwiązanie
Sposobem na zdefiniowanie asymetrycznej funkcji utraty byłoby po prostu pomnożenie przez wagę: przy czym jest parametrem, który możemy dostosować, aby zmienić stopień asymetrii. Znalazłem to tutaj . Wydaje się to najprostszą rzeczą do zrobienia, zachowując kwadratową stratę.a-∈(0,1)
źródło
Odpowiedzi:
Jak wspomniano w komentarzach powyżej, regresja kwantowa wykorzystuje asymetryczną funkcję straty (liniową, ale o różnych nachyleniach dla błędów dodatnich i ujemnych). Kwadratyczny (strata kwadratowa) analog regresji kwantowej jest regresją wyczekującą.
Możesz użyć Google regresji kwantyli dla odniesień. Aby zapoznać się z regresją wyczekiwania, patrz pakiet R expectreg i odniesienia w podręczniku odniesienia.
źródło
Ten rodzaj nierównego ważenia jest często wykonywany w problemach z klasyfikacją dwóch klas. Regułę Bayesa można modyfikować za pomocą funkcji straty, która waży stratę wyżej dla jednego błędu niż dla drugiego. Doprowadzi to do reguły, która powoduje nierówne poziomy błędów.
W regresji z pewnością byłoby możliwe skonstruowanie funkcji wagi, takiej jak ważona suma kwadratów, która nada pewną wagę błędom ujemnym, a większą wagę dodatnim. Byłoby to podobne do ważonego najmniejszego kwadratu, ale trochę inne, ponieważ ważone najmniejsze kwadraty są przeznaczone dla problemów, w których wariancja błędu nie jest stała w przestrzeni możliwych wartości zmiennych predykcyjnych. W takim przypadku wagi są wyższe dla punktów, w których wiadomo, że wariancja błędu jest niewielka, a wyższe, gdy wiadomo, że wariancja błędu jest duża. To oczywiście doprowadzi do wartości parametrów regresji, które różnią się od tego, co dałby OLS.
źródło