Ciekawą opcją byłoby zbadanie neuronowej redukcji wymiarowości. Najczęściej używany typ sieci do redukcji wymiarów, autoencoder, można trenować kosztem , gdzie reprezentuje iteracje treningowe (jest hiperparametrem niezależnym od danych treningowych) . Dlatego złożoność szkolenia upraszcza się do .O(i⋅n)iO(n)
Możesz zacząć od przyjrzenia się pracy seminaryjnej 2006 Hinton i Salakhutdinov [1]. Od tego czasu wiele się zmieniło. Obecnie większą uwagę zwracają autoakodery wariacyjne [2], ale podstawowa idea (sieć, która rekonstruuje dane wejściowe na swojej warstwie wyjściowej z warstwą wąskiego gardła pomiędzy nimi) pozostaje taka sama. Należy zauważyć, że w przeciwieństwie do PCA i RP, autoencodery dokonują nieliniowej redukcji wymiarowości. Ponadto, w przeciwieństwie do t-SNE, autokodery mogą przekształcać niewidzialne próbki bez konieczności ponownego szkolenia całego modelu.
Z praktycznego punktu widzenia polecam zajrzeć do tego postu , który zawiera szczegółowe informacje na temat wdrażania różnych typów autoencoderów za pomocą wspaniałej biblioteki Keras.
[1] Hinton, GE i Salakhutdinov, RR (2006). Zmniejszenie wymiarów danych za pomocą sieci neuronowych. science, 313 (5786), 504-507.
[2] Kingma, DP, i Welling, M. (2013). Automatyczne kodowanie pól wariacyjnych. nadruk arXiv arXiv: 1312.6114.
Oprócz wspomnianych już autokoderów, można spróbować wykorzystać lemat Johnsona-Lindenstraussa za pomocą losowych rzutów lub losowych metod podprzestrzeni. Występy są losowe , z liczbę próbek o wymiarze i o wymiar cel CF [1].O(kdN) N d k
Trochę googlingu przyniesie kilka bardzo najnowszych wyników, w szczególności dla rzadkich zestawów danych.
[1] Losowa projekcja w redukcji wymiarowości: aplikacje do danych obrazu i tekstu .
źródło