W przypadku algorytmów losowych przyjmujących rzeczywiste wartości „sztuczka medianowa” jest prostym sposobem zmniejszenia prawdopodobieństwa niepowodzenia do dowolnego progu , kosztem tylko wielokrotności narzut. Mianowicie, jeśli wyjście mieści się w „dobrym zakresie” z prawdopodobieństwem (co najmniej) , to uruchamianie niezależnych kopii i przyjmując medianę swoich wyników spowoduje, że wartość spadnie do z prawdopodobieństwem co najmniej granicach Chernoffa / Hoeffdinga.
Czy istnieje jakieś uogólnienie tej „sztuczki” do wyższych wymiarów, powiedzmy , gdzie dobrym zasięgiem jest teraz zestaw wypukły (lub kula lub jakikolwiek wystarczająco ładny i uporządkowany zestaw)? To znaczy, biorąc pod uwagę zrandomizowany algorytm wyprowadzający wartości w oraz „dobry zestaw” taki, że dla wszystkich , w jaki sposób można zwiększyć prawdopodobieństwo sukcesu do przy koszcie logarytmicznym tylko w ?
(Odmiennie sformułowane: biorąc pod uwagę ustalone, arbirary z gwarancją, że co najmniej z należy do , czy istnieje procedura wyprowadzanie wartości z ? Jeśli tak, to czy istnieje efektywna?)2 t aiSS
A jaki jest minimalny zestaw założeń, których potrzebuje aby powyższe było możliwe do osiągnięcia?
Przepraszam, jeśli okaże się to trywialne - nie mogłem znaleźć odniesienia do tego pytania ...
źródło
Odpowiedzi:
To, czego szukasz, to prawie ta sama silna tendencja centralna : sposób zredukowania chmury punktów danych do jednego punktu, tak że jeśli wiele punktów danych jest zbliżonych do jakiejś „podstawowej prawdy”, ale reszta z nich są dowolnie daleko, wtedy twój wynik będzie również bliski prawdzie podstawowej. „Punktem podziału” takiej metody jest ułamek arbitralnie złych wartości odstających, które może tolerować. Różnica polega na tym, że w twoim przypadku chcesz zastąpić „blisko” przez „w wypukłym kadłubie”.
Jednym ze sposobów na uchwycenie tego jest pojęcie głębokości Tukey. Punkt ma głębokość Tukeya (w odniesieniu do danego zestawu punktów danych), jeśli każda półprzestrzeń zawierająca dany punkt zawiera również co najmniej punktów danych. Jeśli istnieje dobra wypukła podprzestrzeń, w której chcesz się znaleźć, to punkt o głębokości Tukeya będzie w niej, dopóki będzie w niej co najmniej punktów danych. Zatem punktem podziału tej metody jest największa wartość , jaką można uzyskać.n p n p ( 1 - p ) n pp n pn p (1−p)n p
Niestety ten punkt podziału wynosi , nie jest blisko 1/2, zarówno dla głębokości Tukey, jak i dla twojego problemu. Oto dlaczego: jeśli twoje dane są skupione w pobliżu wierzchołków jednostronnych, to tak długo, jak mniej niż część jest wartościami odstającymi (ale nie wiesz, które), to dowolny punkt w simplex jest bezpieczny do wybrania, ponieważ zawsze znajdzie się w wypukłym kadłubie elementów odstających. Ale jeśli więcej niż punktów może być wartościami odstającymi, to nie ma bezpiecznego miejsca do wybrania: niezależnie od tego, który punkt w elemencie wybranym wybierzesz, wartościami odstającymi mogą być wszystkie punkty z najbliższego wierzchołka liczby pojedynczej i byłbyś poza kadłubem nietypowych.d + 1 1 / ( d + 1 ) 1 / ( d + 1 )1/(d+1) d+1 1/(d+1) 1/(d+1)
Jeśli jesteś gotów tolerować gorszy punkt przebicia, bardziej jak , jest to metoda na znalezienie randomizowane głęboki punkt, który jest wielomian zarówno i : patrz mój papiern dO(1/d2) n d
Przybliżenie punktów środkowych za pomocą iterowanych punktów Radona, K. Clarkson, D. Eppstein, GL Miller, C. Sturtivant i S.-H. Teng, 9. ACM Symp. Komp. Geom. , San Diego, 1993, ss. 91–98, Int. J. Comp. Geom. I Appl. 6 (3): 357–377, 1996, http://kenclarkson.org/center/p.pdf
źródło
To miłe pytanie i już o tym myślałem. Oto, co wymyśliliśmy:
Uruchomieniu algorytmu razy, aby dostać wyjścia i wiesz, co z dużym prawdopodobieństwem duża część s upadku na jakiegoś dobrego zestawu . Nie wiesz, co to jest , tylko to, że jest wypukłe. Dobrą wiadomością jest to, że istnieje sposób na uzyskanie punktu w bez dalszych informacji na ten temat. Nazwij ten punkt .n x1,⋯,xn∈Rd xi G G G f(x1,⋯,xn)
Zauważ, że dla możemy ustawić na medianę. To pokazuje, jak uogólnić medianę dla .d=1 f d>1
Przed udowodnieniem tego wyniku, zwróć uwagę, że jest ciasny: Niech i niech będą standardowymi elementami podstawowymi, a . Każdy podzbiór punktów jest zawarty w afinicznej przestrzeni o wymiarze (który jest jednoznacznie określony przez te punkty). Ale nie ma sensu we wszystkich tych afinicznych przestrzeniach. Stąd jest wypukły który zawiera punktów, ale nie zawiera , bez względu na jaką wartość.n=d+1 x1,⋯,xd xd+1=0 d G d−1 G n⋅d/(d+1)=d f(x1,⋯,xn)
Niestety, ten wynik nie jest zbyt praktyczny w ustawieniach wysokowymiarowych. Dobrym pytaniem jest, czy możemy obliczać bardziej wydajnie:f
Poza tym: Możemy również zmienić problem, aby uzyskać wydajne rozwiązanie: jeśli mają właściwość, że ściśle ponad połowa z nich leży w kulce , możemy znaleźć punkt który znajduje się w w czasie wielomian i . W szczególności możemy ustawić dla dowolnego tak że dokładnie więcej niż połowa punktów znajduje się w .x1,⋯,xn B(y,ε) z B(y,3ε) n d z=xi i B(z,2ε)
źródło
Istnieje pojęcie mediany zbioru punktów w wysokich wymiarach i ogólnych normach, które jest znane pod różnymi nazwami. To tylko punkt, który minimalizuje sumę odległości do wszystkich punktów w zestawie. Wiadomo, że ma podobną właściwość wzmocnienia ufności jak zwykła mediana z niewielkim multiplikatywnym wzrostem odległości. Szczegóły znajdują się w Twierdzeniu 3.1 tego dokumentu: http://arxiv.org/pdf/1308.1334.pdf
Jedną fajną rzeczą, którą pokazuje ten artykuł, jest to, że czynnikiem, dzięki któremu zwiększa się odległość, można ustawić dowolną stałą> 1, jeśli można zwiększyć z arbitralnie wysokiej (ale stałej <1) pewności.
Edycja: istnieje inny niedawny artykuł na ten temat autorstwa Hsu i Sabato http://arxiv.org/pdf/1307.1827v6.pdf Przeważnie analizuje i stosuje procedurę, w której punkt w zestawie o najmniejszej medianie odległości do reszty punktów jest używany. Tę procedurę można zastosować z dowolną miarą, ale daje ona jedynie współczynnik przybliżenia 3.
źródło