Współczynnik korygujący błędy wprowadza w błąd

10

W teorii kodowania „jak dobry jest kod” oznacza liczbę błędów kanału, które można poprawić lub, mówiąc lepiej, maksymalny poziom szumu, z którym kod może sobie poradzić.

Aby uzyskać lepsze kody, kody są zaprojektowane przy użyciu dużego alfabetu (zamiast binarnego). A potem kod jest dobry, jeśli może poradzić sobie z dużą liczbą błędnych „symboli”.

Dlaczego nie uważa się za oszukiwanie? Czy nie powinno nas obchodzić tylko to, co się stanie, kiedy „przetłumaczymy” każdy symbol na ciąg binarny? „Szybkość błędu bitowego” różni się od częstości „błędu symbolu”. Na przykład częstość błędów bitowych nie może przekroczyć 1/2, natomiast (jeśli dobrze to rozumiem), przy wystarczająco dużym alfabecie, błąd symbolu może wzrosnąć do . Czy dzieje się tak, ponieważ sztucznie ograniczamy kanał do zmiany tylko „symboli”, a nie bitów, czy może dlatego, że kod jest rzeczywiście lepszy?1-ϵ

Ran G.
źródło
1
Dlaczego miałbyś się ograniczać do kodów binarnych, jeśli Twój nośnik / technologia transmisji może obsłużyć o wiele więcej?
Raphael
@Raphael Byłoby pomocne, gdybyś mógł uzasadnić swój punkt kilkoma praktycznymi przykładami rzeczywistych technologii obsługujących niebinarne symbole i opublikować to jako odpowiedź.
Mohammad Alaggan
@ M.Alaggan: Nie jestem ekspertem w tej dziedzinie; Myślę, że jeśli potrafisz zakodować 0/1 na fali nośnej, możesz także zakodować wiele innych symboli, przesyłając więcej informacji według przedziału czasu. Zaskoczyłoby mnie, gdyby współczesna technologia tego nie zrobiła (pomyśl o multipleksowaniu kodu), ale nie mogę podać konkretnego przykładu.
Raphael
@ Rafael Myślę, że masz rację, obecne kanały komunikacji cyfrowej DO działają z większymi symbolami, ale nie więcej niż, powiedzmy, 256-bit na symbol (co jest dość rzadkie w przypadku łączności bezprzewodowej, ale może być wspólne dla kabli). Ale rozmiar symbolu jest ograniczony do bardzo małych rozmiarów i nie może (praktycznie) rosnąć do woli.
Ran G.

Odpowiedzi:

8

Wiele powszechnie używanych kodów dla danych binarnych jest połączonymi kodami, które składają się z dwóch kodów korygujących błędy. Kod wewnętrzny jest na alfabet binarnej, a kod zewnętrzny jest na alfabet których symbole odpowiadają kodowych kodu wewnętrznego. Pozwala to wykorzystać wyższą moc większych rozmiarów alfabetu do kodowania wiadomości binarnych bez „oszukiwania”.

Standardowa definicja minimalnej odległości jest naturalna do zastosowania przy rozważaniu kodów połączonych, a także w teorii kodów o dużych rozmiarach alfabetu. Byłoby to „oszustwem”, gdybyś użył tych liczb do porównania kodu binarnego z kodem dużej litery, który koduje dane binarne bez użycia kodu wewnętrznego; teoretycy kodowania są na tyle sprytni, aby tego nie robić (i uważam, że odkąd wymyślono skonkatenowane kody, często używano kodów z dużymi alfabetami wraz z kodem wewnętrznym, ale kody z dużymi alfabetami są również bardzo dobre do korygowania błędów w kanałach bursty, takich jak jako płyty CD, ponieważ duża liczba kolejnych błędów bitowych wpłynie tylko na kilka „symboli”).

Peter Shor
źródło
Peter, dzięki za odpowiedź. W przypadku połączonego kodu, czy nie jest prawdą, że poziom błędu (bitów) nie może przekraczać 1/2? więc ta metoda pozwala nam zbliżyć się do 1/2 przy jednoczesnym zachowaniu skuteczności dekodowania, prawda?
Ran G.
@Ran: W przypadku kodu binarnego bitowa stopa błędów nie może przekraczać 1/2. Skonsolidowane kody nie muszą być binarne. Ale to dręczące; twój komentarz jest zasadniczo poprawny.
Peter Shor