Czy autokoderów można używać do nadzorowanego uczenia się bez dodawania warstwy wyjściowej ? Czy możemy po prostu nakarmić go połączonym wektorem wejściowo-wyjściowym do treningu i zrekonstruować część wyjściową z części wejściowej podczas wnioskowania? Część wyjściowa byłaby traktowana jako brakująca wartość podczas wnioskowania i zastosowano by pewną imputację.
neural-networks
rcpinto
źródło
źródło
Odpowiedzi:
Jednym z takich artykułów, które znam i które wdrożyłem, jest częściowo nadzorowane uczenie się przy użyciu sieci drabinkowych . Cytuję tutaj ich opis modelu:
W celu uzyskania dalszych wyjaśnień na temat architektury sprawdź Dekonstrukcja architektury sieci drabinowej autorstwa Yoshua Bengio.
źródło
Pamiętam czytanie artykułów o takich systemach, jeśli dobrze cię rozumiem, ale w tej chwili nie pamiętam tytułów.
Pomysł polegał na wykorzystaniu generatywnych RNN opartych na znakach, wytrenowaniu ich w sekwencjach zakodowanych jak „datadatadatadata | answer”, a następnie podczas wprowadzania „otherdatadata |” to nadal generowałby oczekiwaną odpowiedź.
Ale, o ile pamiętam, była to tylko zgrabna ilustracja, ponieważ jeśli masz dane do zrobienia czegoś pod nadzorem, to uzyskasz lepsze wyniki konwencjonalnymi metodami.
źródło