Pytania oznaczone «it.information-theory»

Pytania w teorii informacji

33
Jaka jest objętość informacji?

To pytanie zostało zadane Jeannette Wing po prezentacji PCAST na temat informatyki. „Czy z punktu widzenia fizyki istnieje maksymalna ilość informacji, którą możemy mieć?” (Fajne wyzwanie dla teoretycznej społeczności informatycznej, ponieważ myślę, że rodzi to pytanie „Czym jest informacja?”)...

14
Czy eta-równoważność funkcji jest zgodna z sekwencją Haskella?

Lemat: Zakładając, że równoważność eta istnieje (\x -> ⊥) = ⊥ :: A -> B. Dowód: ⊥ = (\x -> ⊥ x)przez eta-równoważność i (\x -> ⊥ x) = (\x -> ⊥)redukcję pod lambda. Raport Haskell 2010, rozdział 6.2 określa seqfunkcję na podstawie dwóch równań: seq :: a -> b -> b seq ⊥ b =...

14
Przydatność entropii Renyi?

Większość z nas zna - lub przynajmniej słyszała - entropię Shannona zmiennej losowej, H(X)=−E[logp(X)]H(X)=−E[log⁡p(X)]H(X) = -\mathbb{E} \bigl[ \log p(X)\bigr] oraz wszystkie powiązane miary teoretyczne, takie jak entropia względna, wzajemna informacja i tak dalej. Istnieje kilka innych miar...

12
Na entropii sumy

Szukam oprawionego na entropii H(X+Y)H(X+Y)H(X+Y) sumy dwóch niezależnych dyskretnych zmiennych losowych i . Oczywiście, Jednak zastosowane do sumy niezależnych zmiennych losowych Bernoulliego , daje to Innymi słowy, granica rośnie liniowo z przy wielokrotnym stosowaniu. Jednak jest obsługiwany...