Uwaga: wysyłam pytanie od mojego byłego studenta, który nie jest w stanie samodzielnie napisać ze względów technicznych.
Biorąc pod uwagę próbkę z rozkładu Weibulla z pdf czy użyteczne brak reprezentacji zmiennej a zatem powiązany algorytm EM (maksymalizacja oczekiwań), którego można użyć do znalezienia MLE zamiast prostego optymalizacja numeryczna?
Odpowiedzi:
Myślę, że odpowiedź brzmi tak, jeśli poprawnie zrozumiałem pytanie.
Napisz . Następnie typ algorytmu EM iteracji, rozpoczynając na przykład k = 1 , jestzi=xki k^=1
Etapz^i=xk^i
Etapk^=n[∑(z^i−1)logxi]
Jest to szczególny przypadek (przypadek bez cenzury i zmiennych towarzyszących) iteracji zaproponowanej dla modeli proporcjonalnych zagrożeń Weibulla przez Aitkina i Claytona (1980). Można go również znaleźć w rozdziale 6.11 Aitkin i in. (1989).
Aitkin, M. and Clayton, D., 1980. Dopasowanie wykładniczego, Weibulla i ekstremalnych rozkładów wartości do złożonych cenzurowanych danych o przeżyciu za pomocą GLIM. Statystyka stosowana , s. 156–163.
Aitkin, M., Anderson, D., Francis, B. and Hinde, J., 1989. Modelowanie statystyczne w GLIM . Oxford University Press. Nowy Jork.
źródło
Weibulla MLE jest tylko numerycznie rozwiązywalne:
Niech zβ,
1) Likelihoodfunction :
log-Likelihoodfunction :
2) Problem MLE : 3) Maksymalizacjaprzez0pacjentów: ∂ l
Pluggingλ∗ into the second 0-gradient condition:
This equation is only numerically solvable, e.g. Newton-Raphson algorithm.β^∗ can then be placed into λ∗ to complete the ML estimator for the Weibull distribution.
źródło
Though this is an old question, it looks like there is an answer in a paper published here: http://home.iitk.ac.in/~kundu/interval-censoring-REVISED-2.pdf
źródło
In this case the MLE and EM estimators are equivalent, since the MLE estimator is actually just a special case of the EM estimator. (I am assuming a frequentist framework in my answer; this isn't true for EM in a Bayesian context in which we're talking about MAP's). Since there is no missing data (just an unknown parameter), the E step simply returns the log likelihood, regardless of your choice ofk(t) . The M step then maximizes the log likelihood, yielding the MLE.
EM would be applicable, for example, if you had observed data from a mixture of two Weibull distributions with parametersk1 and k2 , but you didn't know which of these two distributions each observation came from.
źródło