Powiedzmy, że mam trochę architektury modelowania dogłębnego uczenia się, a także wybrany rozmiar mini-partii. Jak czerpać z tych oczekiwanych wymagań dotyczących pamięci na potrzeby szkolenia tego modelu?
Jako przykład weźmy pod uwagę (jednorazowy) model z wejściem o wymiarze 1000, 4 w pełni połączone ukryte warstwy o wymiarze 100 oraz dodatkową warstwę wyjściową o wymiarze 10. Rozmiar mini-partii wynosi 256 przykładów. Jak określa się przybliżony ślad pamięci (RAM) procesu uczenia się na procesorze i na GPU? Jeśli robi to jakąkolwiek różnicę, załóżmy, że model jest trenowany na GPU z TensorFlow (wykorzystując w ten sposób cuDNN).