Jak zdefiniować niestandardową metrykę wydajności w Keras?

11

Próbowałem zdefiniować niestandardową funkcję metryczną (F1-Score) w Keras (backend Tensorflow) zgodnie z następującymi zasadami:

def f1_score(tags, predicted):

    tags = set(tags)
    predicted = set(predicted)

    tp = len(tags & predicted)
    fp = len(predicted) - tp 
    fn = len(tags) - tp

    if tp>0:
        precision=float(tp)/(tp+fp)
        recall=float(tp)/(tp+fn)
        return 2*((precision*recall)/(precision+recall))
    else:
        return 0

Jak dotąd tak dobrze, ale kiedy próbuję zastosować to w kompilacji modelu:

model1.compile(loss="binary_crossentropy", optimizer=Adam(), metrics=[f1_score])

daje błąd:

TypeError                                 Traceback (most recent call last)
<ipython-input-85-4eca4def003f> in <module>()
      5 model1.add(Dense(output_dim=10, activation="sigmoid"))
      6 
----> 7 model1.compile(loss="binary_crossentropy", optimizer=Adam(), metrics=[f1_score])
      8 
      9 h=model1.fit(X_train, Y_train, batch_size=500, nb_epoch=5, verbose=True, validation_split=0.1)

/home/buda/anaconda2/lib/python2.7/site-packages/keras/models.pyc in compile(self, optimizer, loss, metrics, sample_weight_mode, **kwargs)
    522                            metrics=metrics,
    523                            sample_weight_mode=sample_weight_mode,
--> 524                            **kwargs)
    525         self.optimizer = self.model.optimizer
    526         self.loss = self.model.loss

/home/buda/anaconda2/lib/python2.7/site-packages/keras/engine/training.pyc in compile(self, optimizer, loss, metrics, loss_weights, sample_weight_mode, **kwargs)
    664                 else:
    665                     metric_fn = metrics_module.get(metric)
--> 666                     self.metrics_tensors.append(metric_fn(y_true, y_pred))
    667                     if len(self.output_names) == 1:
    668                         self.metrics_names.append(metric_fn.__name__)

<ipython-input-84-b8a5752b6d55> in f1_score(tags, predicted)
      4     #tf.convert_to_tensor(img.eval())
      5 
----> 6     tags = set(tags)
      7     predicted = set(predicted)
      8 

/home/buda/anaconda2/lib/python2.7/site-packages/tensorflow/python/framework/ops.pyc in __iter__(self)
    493       TypeError: when invoked.
    494     """
--> 495     raise TypeError("'Tensor' object is not iterable.")
    496 
    497   def __bool__(self):

TypeError: 'Tensor' object is not iterable.

Jaki jest tutaj problem? Czy moje dane wejściowe funkcji f1_score nie są tablicami Tensorflow? Jeśli tak, gdzie / jak mogę je poprawnie przekonwertować?

Hendrik
źródło
Hmm, komunikat o błędzie oznacza, że ​​otrzymujesz obiekty tensorowe. Być może jednak potrzebujesz ewaluacji! Jeśli tak, twój błąd prawdopodobnie się pojawi, evalgdy masz na myślieval()
Neil Slater,

Odpowiedzi:

17

Musisz użyć funkcji zaplecza Keras . Niestety, nie obsługują one &-operatora, więc musisz zbudować obejście: Generujemy macierze wymiaru batch_size x 3, w którym (np. Dla prawdziwego dodatniego) pierwsza kolumna jest wektorem prawdziwej ziemi, druga rzeczywistą prognozą, a trzecia jest rodzaj kolumny pomocnika etykiet, która zawiera w przypadku prawdziwie pozytywnych tylko te. Następnie sprawdzamy, które instancje są instancjami pozytywnymi, są przewidywane jako pozytywne, a pomocnik etykiet jest również pozytywny. To są prawdziwe pozytywy.

Możemy zrobić ten analog z fałszywymi pozytywami, fałszywymi negatywami i prawdziwymi negatywami z pewnymi odwrotnymi obliczeniami etykiet.

Twój wskaźnik f1 może wyglądać następująco:

def f1_score(y_true, y_pred):
    """
    f1 score

    :param y_true:
    :param y_pred:
    :return:
    """
    tp_3d = K.concatenate(
        [
            K.cast(y_true, 'bool'),
            K.cast(K.round(y_pred), 'bool'),
            K.cast(K.ones_like(y_pred), 'bool')
        ], axis=1
    )

    fp_3d = K.concatenate(
        [
            K.cast(K.abs(y_true - K.ones_like(y_true)), 'bool'),
            K.cast(K.round(y_pred), 'bool'),
            K.cast(K.ones_like(y_pred), 'bool')
        ], axis=1
    )

    fn_3d = K.concatenate(
        [
            K.cast(y_true, 'bool'),
            K.cast(K.abs(K.round(y_pred) - K.ones_like(y_pred)), 'bool'),
            K.cast(K.ones_like(y_pred), 'bool')
        ], axis=1
    )

    tp = K.sum(K.cast(K.all(tp_3d, axis=1), 'int32'))
    fp = K.sum(K.cast(K.all(fp_3d, axis=1), 'int32'))
    fn = K.sum(K.cast(K.all(fn_3d, axis=1), 'int32'))

    precision = tp / (tp + fp)
    recall = tp / (tp + fn)
    return 2 * ((precision * recall) / (precision + recall))

Ponieważ kalkulator zaplecza Keras zwraca nan dla dzielenia przez zero, nie potrzebujemy instrukcji if-else dla instrukcji return.

Edycja: Znalazłem całkiem niezły pomysł na dokładną implementację. Problem z naszym pierwszym podejściem polega na tym, że jest on tylko „przybliżony”, ponieważ jest obliczany okresowo, a następnie uśredniany. Można to również obliczyć po każdej epoce za pomocą keras.callbacks. Pomysł znajdziesz tutaj: https://github.com/fchollet/keras/issues/5794

Przykładową implementacją byłoby:

import keras
import numpy as np
import sklearn.metrics as sklm


class Metrics(keras.callbacks.Callback):
    def on_train_begin(self, logs={}):
        self.confusion = []
        self.precision = []
        self.recall = []
        self.f1s = []
        self.kappa = []
        self.auc = []

    def on_epoch_end(self, epoch, logs={}):
        score = np.asarray(self.model.predict(self.validation_data[0]))
        predict = np.round(np.asarray(self.model.predict(self.validation_data[0])))
        targ = self.validation_data[1]

        self.auc.append(sklm.roc_auc_score(targ, score))
        self.confusion.append(sklm.confusion_matrix(targ, predict))
        self.precision.append(sklm.precision_score(targ, predict))
        self.recall.append(sklm.recall_score(targ, predict))
        self.f1s.append(sklm.f1_score(targ, predict))
        self.kappa.append(sklm.cohen_kappa_score(targ, predict))

        return

Aby sieć mogła wywoływać tę funkcję, wystarczy dodać ją do swoich wywołań zwrotnych, takich jak

metrics = Metrics()
model.fit(
    train_instances.x,
    train_instances.y,
    batch_size,
    epochs,
    verbose=2,
    callbacks=[metrics],
    validation_data=(valid_instances.x, valid_instances.y),
)

Następnie możesz po prostu uzyskać dostęp do elementów metricszmiennej.

pexmar
źródło
4
Dziękuję, to już było bardzo przydatne. Czy wiesz, jak włączyć niestandardowe parametry do wywołania zwrotnego tablicy wyników, aby można je było monitorować podczas treningu?
N.Kaiser