W żadnym wypadku nie jestem ekspertem od autoencoderów ani sieci neuronowych, więc wybacz mi, jeśli to głupie pytanie.
W celu zmniejszenia wymiarów lub wizualizacji klastrów w danych wielowymiarowych możemy użyć autoenkodera, aby utworzyć (stratną) reprezentację dwuwymiarową poprzez sprawdzenie wyniku warstwy sieci z 2 węzłami. Na przykład w poniższej architekturze sprawdzilibyśmy wynik trzeciej warstwy
gdzie ma danych wejściowych i N L oznacza liczbę węzłów l warstwy TH.
Moje pytanie brzmi: dlaczego chcemy architektury symetrycznej? Czy lustro głębokiej fazy „kompresji” nie oznacza, że możemy mieć podobnie złożoną fazę „dekompresji”, co daje wynik 2-węzłowy, który nie jest zbyt intuicyjny? Innymi słowy, czy prostsza faza dekodowania nie doprowadziłaby do tego, że wyjście warstwy z 2 węzłami również musiałoby być prostsze?
Myślę tutaj, że im mniej złożona jest faza dekompresyjna, tym prostsza (bardziej liniowa?) Musi być reprezentacja 2D. Bardziej złożona faza dekompresji umożliwiłaby bardziej złożoną reprezentację 2D.