Jakie jest statystyczne uzasadnienie interpolacji?

16

Załóżmy, że mamy dwa punkty (poniższy rysunek: czarne kółka) i chcemy znaleźć wartość trzeciego punktu między nimi (krzyżyk). Rzeczywiście, oszacujemy to na podstawie naszych wyników eksperymentalnych, czarnych punktów. Najprostszym przypadkiem jest narysowanie linii, a następnie znalezienie wartości (tj. Interpolacja liniowa). Gdybyśmy mieli np. Punkty podparcia, jako brązowe punkty po obu stronach, wolimy czerpać z nich korzyści i dopasować krzywą nieliniową (zielona krzywa).

Pytanie brzmi: jakie jest statystyczne uzasadnienie oznaczenia Czerwonego Krzyża jako rozwiązania? Dlaczego inne krzyże (np. Żółte) nie są odpowiedziami tam, gdzie mogłyby być? Jaki wniosek lub (?) Popycha nas do zaakceptowania czerwonej?

Opracuję moje oryginalne pytanie w oparciu o odpowiedzi na to bardzo proste pytanie.

wprowadź opis zdjęcia tutaj

Deweloper
źródło
7
To bardzo dobrze postawione i interesujące pytanie. Możesz rozróżnić interpolację szeregów czasowych od innych form interpolacji (takich jak splajn lub interpolacja przestrzenna), ze względu na nieodłączną kierunkowość szeregów czasowych.
whuber
1
Doceniam ten bardzo motywujący komentarz.
Deweloper
Zobacz także Jak działa interpolacja Kriging? .
Scortchi - Przywróć Monikę

Odpowiedzi:

14

Każda forma dopasowania funkcji, nawet nieparametryczna (która zazwyczaj przyjmuje założenia dotyczące gładkości stosowanej krzywej), obejmuje założenia, a zatem skok wiary.

Starożytne rozwiązanie interpolacji liniowej polega na tym, że „po prostu działa”, gdy posiadane dane są drobnoziarniste „wystarczająco” (jeśli spojrzysz na koło wystarczająco blisko, to również wygląda płasko - po prostu zapytaj Kolumba), i było możliwe nawet przed erą komputerów (co nie ma miejsca w przypadku wielu współczesnych rozwiązań splajnów). Sensowne jest założenie, że funkcja będzie „zachowywać się w tej samej (tj. Liniowej) materii” między dwoma punktami, ale nie ma z góry uzasadnionego powodu (z wyjątkiem wiedzy o omawianych koncepcjach).

Szybko staje się jasne, gdy masz trzy (lub więcej) niekolinearnych punktów (np. Gdy dodasz brązowe punkty powyżej), że liniowa interpolacja między każdym z nich wkrótce będzie obejmować ostre rogi w każdym z tych, co zwykle jest niepożądane. Właśnie tam wskakują inne opcje.

Jednak bez dalszej wiedzy w tej dziedzinie nie można z całą pewnością stwierdzić, że jedno rozwiązanie jest lepsze od drugiego (w tym celu musiałbyś wiedzieć, jaka jest wartość innych punktów, pokonując cel dopasowania funkcji do pierwsze miejsce).

Z drugiej strony, a może bardziej odpowiednie dla twojego pytania, w „warunkach prawidłowości” (czytaj: założenia : jeśli wiemy że funkcja jest np. Gładka), zarówno interpolacja liniowa, jak i inne popularne rozwiązania mogą być „rozsądne” przybliżenia. Nadal: wymaga to założeń i dla nich zazwyczaj nie mamy statystyk.

Nick Sabbe
źródło
To dobra odpowiedź i to mój kandydat do oznaczenia jako odpowiedź. Zrozumiałem, że nie ma statystycznego uzasadnienia tak powszechnego wyboru, prawda?
Deweloper
Rzeczywiście wierzę, że nie ma, nie.
Nick Sabbe,
2
Część literatury (obejmująca konkursy na interpolację próbek znanych zestawów danych) częściowo potwierdza tę odpowiedź, ale nie całkowicie. Można się wiele dowiedzieć na temat korelacji przestrzennej danych poprzez analizę statystyczną samych danych, bez żadnych „warunków regularności”. Potrzebny jest model danych jako próbka jednej realizacji procesu stochastycznego wraz z (1) hipotezą ergodyczną i (w większości przypadków) (2) pewnym założeniem stacjonarności. W tych ramach interpolacja staje się prognozą oczekiwań, ale dozwolone są nawet nieróżniczkowalne krzywe.
whuber
1
@ whuber: Jestem tutaj poza moją strefą komfortu, ale wszystko po „warunkach regularności” w twoim komentarzu brzmi jak dość solidna liczba założeń (stacjonarność prawdopodobnie oznaczałaby warunek regularności, prawda?). Właściwie myślę, że będzie to zależeć od tego, czy twoja próbka jest duża w odniesieniu do nieprawidłowości w formie funkcjonalnej ... Czy możesz podać odniesienie do papieru lub polubień, jeśli tak nie jest?
Nick Sabbe,
2
Nic nie możesz zrobić bez założeń, Nick! Ale regularność (taka jak gładkość funkcji) nie jest konieczna: można ją wywnioskować z danych, przynajmniej na podstawie skali, w której próbkowana jest funkcja. (Stacjonarność jest znacznie łagodniejszym założeniem niż gładkość.) Masz rację, że potrzebne są duże próbki, ale wiele można się nauczyć w 2D nawet przy 30-50 dobrze wybranych lokalizacjach próbek. Literatura jest duża; na przykład poświęcono temu większość zagadnień z geologii matematycznej . Aby uzyskać rygorystyczne wprowadzenie, patrz Statystyka przestrzenna
whuber
0

Możesz wypracować równanie liniowe dla linii najlepszego dopasowania (np. Y = 0,4555 x + 0,7525), ale zadziałałoby to tylko, gdyby istniała oś oznaczona. Jednak nie dałoby to dokładnej odpowiedzi tylko najlepiej pasującej do pozostałych punktów.

Claire Winterbourne
źródło
Ale regresja nie jest interpolacją .
Scortchi - Przywróć Monikę
1
@Scortchi Wierzę, że regresję można rozumieć jako interpolację. Jednak zaproponowanie regresji jako rozwiązania nie odpowiada na pytanie, które prosi nas o wyjaśnienie, dlaczego jakikolwiek rodzaj interpolacji jest uzasadniony (i domyślnie zachęca nas do opisania założeń niezbędnych do jego uzasadnienia).
whuber
@whuber: Dzięki. Myślałem o interpolacji, przynajmniej prototypowej, jako łączeniu kropek - stats.stackexchange.com/a/33662/17230 .
Scortchi - Przywróć Monikę
@Scortchi Wątek ten dotyczy przede wszystkim matematycznej koncepcji interpolacji w tabeli. W komentarzu do swojego pytania wskazałem konwencjonalne statystyczne rozumienie interpolacji, które jest nieco inne. Regresja działa w obu światach: funkcja regresji może służyć jako interpolator matematyczny (dla dobrze zdefiniowanej funkcji próbkowanej w tabeli) oraz interpolator statystyczny (za pomocą statystycznych prognoz wartości procesu stochastycznego zależnego od skończona liczba wartości pochodzących z tego procesu).
whuber
1
@Cagdas Jedynym sposobem na doskonałą rekonstrukcję funkcji z danych skończonych jest wprowadzenie wystarczających ograniczeń dla funkcji, aby był tylko jeden kandydat na nią zależny od danych! W szczególności, biorąc pod uwagę liczbę punktów danychn a biorąc pod uwagę podpory funkcji (ale niezależnie od jej wartości na tych podporach), zestaw możliwych funkcji musi być co najwyżej skończonym wymiarem rozmaitości wymiarów n.
whuber