O ile mogę stwierdzić, SOM w stylu Kohonen osiągnęły szczyt około 2005 roku i ostatnio nie spotkały się z tak dużą przychylnością. Nie znalazłem żadnego artykułu, który mówi, że SOM zostały uwzględnione inną metodą lub okazały się równoważne z czymś innym (w każdym razie w większych wymiarach). Ale wygląda na to, że tSNE i inne metody otrzymują teraz o wiele więcej atramentu, na przykład w Wikipedii lub w SciKit Learn, a SOM jest wymieniany bardziej jako metoda historyczna.
(Właściwie artykuł w Wikipedii wydaje się wskazywać, że SOM nadal mają pewne zalety w stosunku do konkurentów, ale jest to również najkrótszy wpis na liście. EDYCJA: Na życzenie Gunga jednym z artykułów, o których myślę, jest: nieliniowa redukcja wymiarów Zauważ, że SOM napisał o tym mniej niż inne metody. Nie mogę znaleźć artykułu, w którym wspomniano o przewadze, którą SOM wydają się zachowywać w porównaniu z większością innych metod.)
Jakieś spostrzeżenia? Ktoś inny zapytał, dlaczego nie są używane SOM, i dostał referencje od jakiegoś czasu, a ja znalazłem materiały z konferencji SOM, ale zastanawiałem się, czy wzrost SVM lub tSNE, i in., Po prostu przyćmił SOM w uczeniu maszynowym pop.
EDYCJA 2: Zupełnie przez przypadek właśnie czytałem dziś wieczorem ankietę z 2008 roku na temat nieliniowej redukcji wymiarowości, i dla przykładów wspomina tylko: Isomap (2000), lokalnie liniowe osadzanie (LLE) (2000), Hessian LLE (2003), Laplacian eigenmaps (2003) i semidefinite embedding (SDE) (2004).
Odpowiedzi:
Myślę, że coś cię interesuje, zauważając wpływ tego, co uczenie maszynowe obecnie określa jako „najlepsze” algorytmy redukcji wymiarów. Podczas gdy t-SNE wykazał swoją skuteczność w konkursach, takich jak Merck Viz Challenge , osobiście odniosłem sukces w implementacji SOM zarówno w przypadku ekstrakcji funkcji, jak i klasyfikacji binarnej. Chociaż na pewno są tacy, którzy odrzucają SOM bez uzasadnienia poza wiekiem algorytmu (sprawdź tę dyskusję , istnieje również szereg artykułów, które zostały opublikowane w ciągu ostatnich kilku lat, które wdrożyły SOM i osiągnęły pozytywne wyniki (patrz Mortazavi i in., 2013 ; Frenkel i in., 2013na przykład). Wyszukiwarka Google Scholar ujawni, że SOM są nadal wykorzystywane w wielu domenach aplikacji. Zasadniczo jednak najlepszym algorytmem dla konkretnego zadania jest właśnie ten - najlepszy algorytm dla konkretnego zadania. Tam, gdzie losowy las dobrze sprawdził się w przypadku konkretnego zadania klasyfikacji binarnej, może działać okropnie na innym. To samo dotyczy zadań grupowania, regresji i optymalizacji. Zjawisko to jest związane z twierdzeniem o braku darmowego lunchu , ale jest to temat na kolejną dyskusję. Podsumowując, jeśli SOM działa najlepiej dla danego zadania, to algorytmu tego należy użyć do tego zadania, niezależnie od tego, co jest popularne.
źródło
Przeprowadziłem badania dotyczące porównywania SOM z t-SNE i innymi, a także zaproponowałem ulepszenie SOM, które przenosi go na nowy poziom wydajności. Sprawdź to tutaj i daj mi znać swoją opinię. Chciałbym dowiedzieć się, co ludzie o tym myślą i czy warto publikować w Pythonie, aby ludzie mogli z niego korzystać.
Link do dokumentu IEEE: http://ieeexplore.ieee.org/document/6178802/
Implementacja Matlaba. https://www.mathworks.com/matlabcentral/fileexchange/35538-cluster-reinforcement--cr--phase
Dziękuję za twój komentarz.
źródło
Moim subiektywnym poglądem jest to, że SOM są mniej znane i postrzegane jako mniej „seksowne” niż wiele innych metod, ale nadal są bardzo istotne w przypadku niektórych klas problemów. Może się zdarzyć, że mieliby znaczący wkład, gdyby były szerzej stosowane. Są one nieocenione we wczesnych etapach eksploracyjnej analizy danych, ponieważ pozwalają poznać „krajobraz” lub „topologię” danych wielowymiarowych.
Rozwój bibliotek takich jak Somoclu i badania takie jak Guénaël Cabanes (i wiele innych) pokazują, że SOM są nadal aktualne.
źródło