Załóżmy, że mam gładką funkcję, taką jak . Mam zestaw treningowy D ⊊ { ( ( x , y ) , f ( x , y ) ) | ( x , y ) ∈ R 2 } i, oczywiście, nie znam f, chociaż mogę ocenić f gdziekolwiek chcę.
Czy drzewa regresji są w stanie znaleźć gładki model funkcji (stąd niewielka zmiana na wejściu powinna dać tylko niewielką zmianę na wyjściu)?
Z tego, co przeczytałem w Wykładzie 10: Drzewa regresji , wydaje mi się, że drzewa regresji w zasadzie umieszczają wartości funkcji w przedziałach:
W przypadku klasycznych drzew regresji model w każdej komórce jest tylko stałym oszacowaniem Y.
Kiedy piszą „klasyczny”, myślę, że istnieje wariant, w którym komórki robią coś bardziej interesującego?
źródło
W klasycznych drzewach regresji masz jedną wartość w liściu, ale w liściu możesz mieć model regresji liniowej, sprawdź ten bilet.
Możesz także użyć zestawu drzew (losowe maszyny leśne lub maszyny zwiększające gradient), aby uzyskać ciągłą wartość wyjściową.
źródło
Jeśli nieco rozszerzysz pytanie, aby uwzględnić ogólne techniki zwiększania gradientu (w przeciwieństwie do specjalnego przypadku drzew regresji wzmocnionej), odpowiedź brzmi tak. Zwiększanie gradientu zostało z powodzeniem wykorzystane jako alternatywa dla wyboru zmiennych. Dobrym przykładem jest pakiet mboost . Kluczem jest to, że klasa podstawowych uczniów wykorzystywanych do wzmocnienia składa się z ciągłych modeli na początek. W tym samouczku opisano typowe klasy uczniów podstawowych w następujący sposób:
Zauważ, że szczególnie wspomina o falkach. Drzewa i falki z powodzeniem łączono wcześniej w falki oparte na drzewach.
źródło