W szczególności zastanawiam się nad tym stwierdzeniem:
Przyszłe główne wersje TensorFlow domyślnie umożliwią przepływ gradientów do danych wejściowych na etykietach.
Który jest wyświetlany, gdy używam tf.nn.softmax_cross_entropy_with_logits
. W tym samym komunikacie zachęca mnie do przyjrzenia się tf.nn.softmax_cross_entropy_with_logits_v2
. Przejrzałem dokumentację, ale stwierdza tylko, że dla tf.nn.softmax_cross_entropy_with_logits_v2
:
Propagacja wstąpi na logi i etykiety. Aby uniemożliwić wsteczne propagowanie do etykiet, przepuść tensory etykiet przez stop_gradients przed podaniem ich do tej funkcji.
w przeciwieństwie do tf.nn.softmax_cross_entropy_with_logits
:
Propagacja wsteczna nastąpi tylko w logach.
Będąc bardzo nowym tematem (staram się przejść przez kilka podstawowych samouczków), te stwierdzenia nie są bardzo jasne. Mam płytkie rozumienie propagacji wstecznej, ale co tak naprawdę oznacza poprzednie oświadczenie? Jak łączy się propagacja wsteczna i etykiety? Jak to się zmienia tf.nn.softmax_cross_entropy_with_logits_v2
w porównaniu do oryginału?
źródło
softmax_..._with_logits_v2
będą działaćsoftmax_with_logits
? (Lub mógłbym użyć tf.stop_gradient na zmiennej label).