Czy entropia różnicowa jest zawsze mniejsza niż nieskończoność?

14

Dla arbitralnej ciągłej zmiennej losowej, powiedzmy , czy jej entropia różnicowa jest zawsze mniejsza niż ? (Jest ok, jeśli jest - .) Jeśli nie, jaki jest konieczny i wystarczający warunek, aby był mniejszy niż ?X

syeh_106
źródło
1
Próbowałeś jakichś przykładów? Na przykład równomierny rozkład w przedziale długości ? L
Piotr Migdal
Rzeczywiście, entropia różnicowa rozkładu równomiernego (w dowolnym przedziale skończonym) jest zawsze skończona, tj. Log (L), stąd ograniczona. W rzeczywistości mogłem zidentyfikować 2 klasy rozkładów ciągłych, których entropia jest zawsze ograniczona - (1) każdy rozkład, którego wsparcie jest zawarte w przedziale skończonym, i (2) dowolny rozkład, którego drugi moment jest skończony. Ten pierwszy jest ograniczony przez rozkład równomierny; podczas gdy ten drugi jest ograniczony rozkładem Gaussa.
syeh_106
W rzeczywistości mogę również zbudować rozkład z nieskończoną drugą chwilą i nadal ma skończoną entropię. Weźmy na przykład f (x) = 3 / (x ^ 2), x> 3. Oczywiście E [X ^ 2] jest nieskończone, ale h (X) ~ = -3,1 nata. Jednak nie byłem w stanie potwierdzić, czy jest to prawdą w przypadku dowolnych ciągłych zmiennych losowych, ani nie podałem przeciwnego przykładu, aby to obalić. Naprawdę doceniłbym to, gdyby ktoś mógł to pokazać.
syeh_106
1
Dziękuję za komentarze i linki, Piotr. Nawiasem mówiąc, sprawdziłem również jeden z moich materiałów szkoleniowych i znalazłem dokładnie ten sam przykład dyskretnej zmiennej losowej z nieskończenie licznym wsparciem. Zmotywowany tym, nie jest trudno skonstruować ciągły analog. Odpowiedź na pierwsze pytanie jest więc oczywista. Podsumuję to poniżej dla innych osób, które mogą mieć to samo pytanie. BTW, muszę dokonać korekty w moim drugim komentarzu powyżej, szczególnie dla f (x) = 3 / (x ^ 2), h (X) powinno być dodatnie, tj. 3,1 nata.
syeh_106
2
To pytanie i odpowiedź są niejednoznaczne, ponieważ nie określają, w których zestawach należy zastosować granice. Jeśli jest RV, to ma entropię, kropkę. Jeśli jest to „arbitralne” ciągłe RV, to (oczywiście) nie ma żadnej górnej granicy możliwej. Jakie ograniczenia zamierzasz nałożyć na X ? Z komentarzy i odpowiedzi wynika, że ​​możesz chcieć naprawić obsługę X - a może nie? Być może chcesz ograniczyć X do tych zmiennych o określonych granicach w określonych momentach? Być może chcesz, aby X był w rodzinie parametrycznej - a może nie? Edytuj to pytanie, aby wyjaśnić. XXXXX
whuber

Odpowiedzi:

11

Zastanowiłem się nad tym pytaniem i udało mi się znaleźć kontrprzykład, również dzięki powyższym komentarzom Piotra. Odpowiedź na pierwsze pytanie brzmi „nie” - entropia różnicowa ciągłej zmiennej losowej (RV) nie zawsze jest mniejsza niż . Na przykład rozważ ciągły RV X, którego pdf to f ( x ) = log ( 2 ) dlax>2.

f(x)=log(2)xlog(x)2
x>2

Nie jest trudno zweryfikować, że jego entropia różnicowa jest nieskończona. Rośnie jednak dość powoli (ok. Logarytmicznie).

W przypadku drugiego pytania nie znam prostego warunku koniecznego i wystarczającego. Jednak jedna częściowa odpowiedź jest następująca. Sklasyfikuj ciągły RV do jednego z następujących 3 typów w oparciu o jego wsparcie, tj



A teraz mamy, co następuje -


μ
σ2

log(ba)1+log(|μa|)12log(2πeσ2)

f(x)=3x2
x>3
f(x)=9|x|3
|x|>3
syeh_106
źródło
1
xαα>0
Dziękuję Piotrowi za porady na temat polityki SE. (Tak, oczywiście jestem tu nowy). Co do skończonych chwil prowadzących do ograniczonej entropii, czy podzieliłbyś się swoim dowodem? Dzięki!
syeh_106
@PiotrMigdal Planuję pozostawić odpowiedź na to pytanie w obecnym stanie po dodaniu ostatniego akcentu. Zmotywowany powyższym komentarzem Piotra, zastanowiłem się, czy skończony środek prowadzi do skończonej entropii. Ogólnie nie mogłem tego wywnioskować. Odkryłem, że to prawda, że ​​wsparcie RV jest w połowie ograniczone. Zobacz poprawioną odpowiedź powyżej. Z niecierpliwością czekam na lepszą odpowiedź od kogoś.
syeh_106
„Nietrudno zweryfikować, że entropia różnicowa jest nieskończona”. Czy możesz pokazać, jak to sprawdzić? Wydaje się, że jest to prawda dla całki Riemanna, ale entropia różnicowa dotyczy miary Lebesgue'a. Mam problem z weryfikacją, czy odpowiednia całka Lebesgue'a nie jest zbieżna.
kantorhead
1
XE[X]H(X)=log(4π)