Wiem o pracy Shannona z entropią, ale ostatnio pracowałem nad zwięzłymi strukturami danych, w których entropia empiryczna jest często używana jako część analizy pamięci.
Shannon zdefiniował entropię informacji wytwarzanej przez dyskretne źródło informacji jako , gdzie jest prawdopodobieństwem wystąpienia zdarzenia , np. Wygenerowany określony znak, i istnieją możliwe zdarzenia.
Jak wskazał MCH w komentarzach, entropia empiryczna jest entropią rozkładu empirycznego tych zdarzeń i dlatego jest podana przez gdzie to liczba zaobserwowanych wystąpień zdarzenia a to całkowita liczba zaobserwowanych zdarzeń. Nazywa się to entropią empiryczną rzędu zerowego . Pojęcie entropii warunkowej Shannona ma podobną wersję empiryczną wyższego rzędu .
Shannon nie użył terminu entropia empiryczna, choć z pewnością zasługuje na uznanie za tę koncepcję. Kto pierwszy użył tego pomysłu, a kto pierwszy użył (bardzo logicznej) nazwy empirycznej entropii, aby go opisać?
źródło
Odpowiedzi:
Interesuje mnie „empiryczna entropia”, podobnie jak ty, a najwcześniejszy artykuł, jaki znalazłem, to ten z Kosaraju, jak użytkownik „Marzio De Biasi” powiedział w swoim komentarzu.
Ale moim zdaniem prawdziwe definicje „empirycznej entropii” zostały sformułowane później poprzez uogólnienie wcześniejszych pojęć:
Gagie przeformułowuje definicjęk empiryczna entropia rzędu do:
gdzie jest procesem Markowa rzędu . Pokazał również, że ta definicja jest równoważna poprzedniej. Kolejnym krokiem od Vitányi było uogólnienie na arbitralne klasy procesów (nie tylko procesy Markowa):Q k
gdzie to klasa dozwolonych procesów, a to złożoność Kołmogorowa. Jeśli wybierzemy jako klasę procesów Markowa tego rzędu, wytwarzających sekwencjęlosowe zmienne i ignorowanie złożoności Kołmogorowa, prowadzi to również do definicji Gagiego (pomnożonej przez ).X K(X)
X k |w| |w|
źródło