Na podstawie tego, czego się nauczyłem, używamy wielu filtrów w warstwie konwekcyjnej CNN, aby uczyć się różnych detektorów funkcji. Ale skoro filtry te są stosowane w podobny sposób (tzn. Przesuwane i mnożone do obszarów danych wejściowych), czy nie nauczyłyby się po prostu tych samych parametrów podczas treningu? Stąd użycie wielu filtrów byłoby zbędne?
11
Znalazłem odpowiedź na to pytanie: https://www.quora.com/Why-does-each-filter-learn-different-features-in-a-convolutional-neural-network
Mówi tutaj: „... algorytm (optymalizacja) stwierdza, że strata nie zmniejsza się, jeśli dwa filtry mają podobne wagi i tendencje, więc ostatecznie zmieni jeden z filtrów (wagi i tendencje), aby w ten sposób zmniejszyć straty uczenie się nowej funkcji ”.
Dziękuję za odpowiedzi. Doceniam to :)
źródło