Nie mogę wymyślić lepszego sposobu zadawania tego pytania, więc zacznę od przykładu. Załóżmy, że mam sygnał wejściowy o maksymalnej częstotliwości 50 Hz (próbkowany przy 100 Hz). Teraz interesujące sygnały mieszczą się w zakresie 0–5 Hz, więc mogę dodać filtr dolnoprzepustowy z odcięciem 5 Hz i wykorzystać uzyskany sygnał do dalszego przetwarzania. Rozumiem, że teraz mogę próbkować w dół filtrowanego sygnału 10-krotnie, a tym samym zmniejszyć obciążenie przetwarzania. Czy mam rację? Jeśli tak, dlaczego próbkowanie w dół nie jest ZAWSZE wykonywane po filtrowaniu, ponieważ wydaje mi się to oczywistą drogą? A jeśli się mylę z założeniem, gdzie się mylę?
filters
decimation
downsampling
sampling
anasimtiaz
źródło
źródło
Odpowiedzi:
Masz rację, że jeśli twój sygnał jest ograniczony pasmem do <5 Hz, możesz idealnie go przedstawić za pomocą częstotliwości próbkowania 10 Hz. Jest to dobrze znane twierdzenie o próbkowaniu
Ale ... mogą istnieć praktyczne względy, dlaczego ktoś nie byłby w stanie i / lub nie był skłonny do korzystania z krytycznie próbkowanych danych.
Jednym z powodów jest trudność krytycznego próbkowania sygnału. Każda operacja wykonywana w celu zmiany szybkości sygnału będzie miała pewien filtr z niezerową przepustowością przejścia. W twoim przykładzie ogranicza to niezmienioną zawartość częstotliwości do 5 stóp. Ta szerokość pasma przejściowego może być bardzo wąska za pomocą filtrów o długiej odpowiedzi impulsowej, ale ma to koszty zarówno pod względem przetwarzania, jak i stanów nieustalonych (dzwonienia) na początku i na końcu sygnału.
Innym powodem jest skuteczność algorytmów, które działają na otrzymanym sygnale. Jeśli musisz pracować z komponentem blackbox, który może wybrać tylko najbliższą próbkę, lepiej będzie, jeśli będziesz karmić go danymi o nadmiernej próbce.
Większość (wszystkich?) Operacji nieliniowych będzie zachowywać się inaczej w przypadku danych krytycznie próbkowanych i nadmiernie próbkowanych. Jednym z przykładów jest podniesienie kwadratu sygnału, dobrze znanego sposobu odzyskiwania nośnej BPSK. Bez 2x nadpróbkowanego warunku, zwielokrotnienie sygnału w dziedzinie czasu z samym sobą powoduje całkowite aliasing śmieci, gdy domena częstotliwości się z sobą splata.
źródło
Dwa kolejne powody, aby przesadzić z próbką:
Małe opóźnienie: na przykład pętle sterowania wymagają bardzo małego opóźnienia. Nadpróbkowanie powoduje szybsze wejście i wyjście danych, co zmniejsza opóźnienia. Również każde filtrowanie dolnoprzepustowe wprowadza opóźnienie grupowe. Im ostrzejszy filtr dolnoprzepustowy, tym większe opóźnienie grupy. Jeśli nadpróbkujesz, potrzebujesz mniej stromych filtrów antyaliasingu i skończysz z mniejszym opóźnieniem grupy, a tym samym opóźnieniem.
Praktyczność: Jeśli dane wejściowe i wyjściowe działają z tą samą (wysoką) częstotliwością, możesz potencjalnie zmniejszyć próbkę, ale musisz ponownie zwiększyć próbkę, zanim będziesz mógł wygenerować wynik. Przykład: w systemie kina domowego można próbkować w dół ścieżkę przetwarzania basu, ale trzeba będzie ponownie próbkować w górę, ponieważ wyjścia pracują z wysoką częstotliwością. W wielu przypadkach oszczędności w MIPS nie są warte zawracania sobie głowy
źródło
Przy ustalaniu częstotliwości próbkowania należy wziąć pod uwagę wiele czynników. Pozwól, że wymienię niektóre z nich, aby dać ci wyobrażenie o innych konsekwencjach, jeśli obniżysz częstotliwość próbkowania. Oczywiście wiele z tego zależy od tego, jak dokładnie obniżysz częstotliwość próbkowania, ale ...
Aby zilustrować niektóre z tych zasad, napisałem prosty program matlab, do którego również pokażę wynik.
źródło
Kryterium Nyquista (podwójna nadpróbka, aby idealnie opisać twój sygnał) dotyczy danych bezszumowych. Jeśli chcesz zrekonstruować zaszumione dane, musisz próbkować z częstotliwością wyższą niż minimalna częstotliwość. Jest to szczególnie prawdziwe w przypadku obrazów, w których zwykle nie ma sygnałów okresowych, a zatem nie można po prostu uśrednić czasowo w celu zmniejszenia szumu.
Ponadto, jeśli chcesz dopasować model do swoich danych, ponownie skorzystasz z wyższego próbkowania, ponieważ dopasowanie modelu do trzech punktów danych nie będzie szczególnie stabilne, szczególnie w obecności hałasu.
źródło
Jednym z powodów utrzymywania nadpróbkowania sygnału jest kompromis zakresu dynamicznego / nadpróbkowania. Z grubsza, za każdym razem, gdy podwajasz przepustowość „niepotrzebnie” dla sygnału zainteresowania, dostajesz dodatkowy kawałek rozdzielczości próbkowania, po zastosowaniu filtrowania (co może się zdarzyć w domenie cyfrowej) możesz przechowywać wyniki na większej głębokości bitowej i te bity zawierają prawidłową treść sygnału, a nie dodatkowy szum (dla żądanej szerokości pasma). Jeśli twój system działa w warunkach, w których pomocny może być dodatkowy zakres dynamiki, to jest dobry powód, aby utrzymać wysoki poziom próbkowania sygnału, gdy wchodzi on do ADC.
źródło