Kto ukuł termin „empiryczna entropia”?

9

Wiem o pracy Shannona z entropią, ale ostatnio pracowałem nad zwięzłymi strukturami danych, w których entropia empiryczna jest często używana jako część analizy pamięci.

Shannon zdefiniował entropię informacji wytwarzanej przez dyskretne źródło informacji jako , gdzie jest prawdopodobieństwem wystąpienia zdarzenia , np. Wygenerowany określony znak, i istnieją możliwe zdarzenia.i=1kpilogpipiik

Jak wskazał MCH w komentarzach, entropia empiryczna jest entropią rozkładu empirycznego tych zdarzeń i dlatego jest podana przez gdzie to liczba zaobserwowanych wystąpień zdarzenia a to całkowita liczba zaobserwowanych zdarzeń. Nazywa się to entropią empiryczną rzędu zerowego . Pojęcie entropii warunkowej Shannona ma podobną wersję empiryczną wyższego rzędu .i=1kninlogninniin

Shannon nie użył terminu entropia empiryczna, choć z pewnością zasługuje na uznanie za tę koncepcję. Kto pierwszy użył tego pomysłu, a kto pierwszy użył (bardzo logicznej) nazwy empirycznej entropii, aby go opisać?

usunięty użytkownik 42
źródło
„punktowo zdefiniowany dla każdego ciągu” brzmi jak złożoność Kołmogorowa: czy o to ci chodzi? Jeśli nie, czy możesz wskazać link, który go definiuje, czy lepiej podać defn w samym pytaniu?
Suresh Venkat
1
Nazywa się to tak, ponieważ empiryczna entropia jest entropią empirycznego rozkładu sekwencji.
Mahdi Cheraghchi,
@SureshVenkat Próbowałem rozwinąć pytanie.
usunięty użytkownik 42
1
Spójrz także na Kosaraju S. Rao, Manziniego G., „Kompresja ciągów niskiej entropii za pomocą algorytmów Lempel-Ziv” (1998). Analizują wydajność algorytmów Lempel-Ziv przy użyciu „ tak zwanej entropii empirycznej ”.
Marzio De Biasi
2
Zauważ, że „rozkład empiryczny” jest tak naprawdę rozkładem ML dla danego zestawu zliczeń częstotliwości. Zastanawiam się więc, czy pochodzi to z Bayes. Nawet Laplace zastanawiał się nad problemem zdefiniowania rozkładu na podstawie obliczeń empirycznych.
Suresh Venkat

Odpowiedzi:

3

Interesuje mnie „empiryczna entropia”, podobnie jak ty, a najwcześniejszy artykuł, jaki znalazłem, to ten z Kosaraju, jak użytkownik „Marzio De Biasi” powiedział w swoim komentarzu.

Ale moim zdaniem prawdziwe definicje „empirycznej entropii” zostały sformułowane później poprzez uogólnienie wcześniejszych pojęć:

  1. „Duże alfabety i nieściśliwość” Travisa Gagiego (2008)
  2. „Emprical entropy” Paula MB Vitányi (2011)

Gagie przeformułowuje definicję kempiryczna entropia rzędu do:

  • Hk(w)=1|w|minQ{log1P(Q=w)}

gdzie jest procesem Markowa rzędu . Pokazał również, że ta definicja jest równoważna poprzedniej. Kolejnym krokiem od Vitányi było uogólnienie na arbitralne klasy procesów (nie tylko procesy Markowa):Qk

  • H(w|X)=minX{K(X)+H(X):|H(X)log1P(X=w)|isminimal!}

gdzie to klasa dozwolonych procesów, a to złożoność Kołmogorowa. Jeśli wybierzemy jako klasę procesów Markowa tego rzędu, wytwarzających sekwencjęlosowe zmienne i ignorowanie złożoności Kołmogorowa, prowadzi to również do definicji Gagiego (pomnożonej przez ).XK(X)
Xk|w||w|

Danny
źródło