W MNIST For ML Beginners określają one jako entropię krzyżową Hy′(y):=−∑iy′ilog(yi)Hy′(y):=−∑iyi′log(yi)H_{y'} (y) := - \sum_{i} y_{i}' \log (y_i) jest przewidywana wartość prawdopodobieństwa dla klasy í i y ' i jest prawdziwym prawdopodobieństwo dla tej klasy.yiyiy_iiiiy′iyi′y_i' Pytanie...