Jaka jest główna różnica między oszacowaniem maksymalnego prawdopodobieństwa (MLE) a oszacowaniem metodą najmniejszych kwadratów (LSE)?
Dlaczego nie możemy użyć MLE do przewidywania wartości w regresji liniowej i odwrotnie?
Każda pomoc na ten temat będzie bardzo mile widziana.
Odpowiedzi:
Chciałbym udzielić prostej odpowiedzi.
Jak skomentował @TrynnaDoStat, minimalizacja błędu kwadratu jest równoważna maksymalizacji prawdopodobieństwa w tym przypadku. Jak powiedziano w Wikipedii ,
mogą być traktowane tak samo w twoim przypadku,
Pozwól mi to szczegółowo opisać. Ponieważ wiemy, że zmienna odpowiedzi (y )
Yja= λ1Xja+ λ2)+ ϵja gdzie ϵ ∼ N( 0 , σ2))
ma model rozkładu błędu normalnego,
funkcją prawdopodobieństwa jest
L ( Y 1 , … , Y n ; λ 1 , λ 2 , σ 2 ) = 1
L ( Y1, … , Yn; λ1, λ2), σ2)) = 1( 2 π)n2)σne x p ( - 12 σ2)( ∑i = 1n( Yja- λ1Xja- λ2))2)) )
Oczywiście maksymalizacja L jest równoważna minimalizacji
∑i = 1n( Yja- λ1Xja- λ2))2)
To jest metoda najmniejszych kwadratów.
źródło
Profesjonalne aplikacje nie tylko pasują do danych, ale sprawdzają:
Istnieje również ogromna liczba specjalistycznych testów statystycznych dla hipotez. Nie dotyczy to wszystkich estymatorów ML lub powinno być przynajmniej potwierdzone.
Zapytaj o szczegóły.
źródło