W szczególności szukam odniesień (artykułów, książek), które rygorystycznie pokażą i wyjaśnią przekleństwo wymiarowości. Pytanie to pojawiło się po tym, jak zacząłem czytać białą księgę autorstwa Lafferty i Wassermana. W akapicie trzecim wspominają o „dobrze znanym” równaniu, które implikuje, że najlepszym wskaźnikiem konwergencji jest ; jeśli ktokolwiek może to wyjaśnić (i wyjaśnić), byłoby to bardzo pomocne.
Czy ktoś może wskazać mi odniesienie, które wywodzi się z „dobrze znanego” równania?
Odpowiedzi:
W nawiązaniu do richiemorrisroe znajduje się odpowiedni obraz z elementów uczenia statystycznego , rozdział 2 (str. 22–27):
Jak widać w prawym górnym panelu, jest więcej sąsiadów o 1 jednostkę w jednym wymiarze niż sąsiadów o 1 jednostkę w 2 wymiarach. 3 wymiary byłyby jeszcze gorsze!
źródło
To nie odpowiada bezpośrednio na twoje pytanie, ale David Donoho ma fajny artykuł na temat analizy danych wielowymiarowych: Przekleństwa i błogosławieństwa wymiaru (powiązane slajdy są tutaj ), w którym wspomina trzy przekleństwa:
źródło
Wiem, że ciągle się do tego odwołuję , ale jest na to świetne wytłumaczenie: elementy uczenia statystycznego , rozdział 2 (str. 22–27). Zasadniczo zauważają, że wraz ze wzrostem wymiarów ilość danych musi się z nim zwiększać (wykładniczo), w przeciwnym razie w większej przestrzeni próbki nie będzie wystarczającej liczby punktów, aby można było przeprowadzić jakąkolwiek przydatną analizę.
Odwołują się do artykułu Bellmana (1961) jako źródła, które wydaje się być jego książką Adaptive Control Processes, dostępną w Amazon tutaj
źródło
Być może najbardziej znany wpływ jest uwidoczniony przez następujący limit (który (pośrednio) pokazano na powyższym obrazku):
Wpływ wymiaru na dane w obrazach
źródło