Keras, jak przewidzieć po wytrenowaniu modelu?

87

Gram z zestawem danych przykład firmy Reuters i działa dobrze (mój model jest wytrenowany). Czytałem o tym, jak zapisać model, aby móc go później załadować i użyć ponownie. Ale jak użyć tego zapisanego modelu do przewidywania nowego tekstu? Czy używam models.predict()?

Czy muszę specjalnie przygotować ten tekst?

Próbowałem tego z

import keras.preprocessing.text

text = np.array(['this is just some random, stupid text'])
print(text.shape)

tk = keras.preprocessing.text.Tokenizer(
        nb_words=2000,
        filters=keras.preprocessing.text.base_filter(),
        lower=True,
        split=" ")

tk.fit_on_texts(text)
pred = tk.texts_to_sequences(text)
print(pred)

model.predict(pred)

Ale zawsze rozumiem

(1L,)
[[2, 4, 1, 6, 5, 7, 3]]
---------------------------------------------------------------------------
AttributeError                            Traceback (most recent call last)
<ipython-input-83-42d744d811fb> in <module>()
      7 print(pred)
      8 
----> 9 model.predict(pred)

C:\Users\bkey\Anaconda2\lib\site-packages\keras\models.pyc in predict(self, x, batch_size, verbose)
    457         if self.model is None:
    458             self.build()
--> 459         return self.model.predict(x, batch_size=batch_size, verbose=verbose)
    460 
    461     def predict_on_batch(self, x):

C:\Users\bkey\Anaconda2\lib\site-packages\keras\engine\training.pyc in predict(self, x, batch_size, verbose)
   1132         x = standardize_input_data(x, self.input_names,
   1133                                    self.internal_input_shapes,
-> 1134                                    check_batch_dim=False)
   1135         if self.stateful:
   1136             if x[0].shape[0] > batch_size and x[0].shape[0] % batch_size != 0:

C:\Users\bkey\Anaconda2\lib\site-packages\keras\engine\training.pyc in standardize_input_data(data, names, shapes, check_batch_dim, exception_prefix)
     79     for i in range(len(names)):
     80         array = arrays[i]
---> 81         if len(array.shape) == 1:
     82             array = np.expand_dims(array, 1)
     83             arrays[i] = array

AttributeError: 'list' object has no attribute 'shape'

Czy masz jakieś zalecenia, jak tworzyć prognozy za pomocą wytrenowanego modelu?

ben
źródło

Odpowiedzi:

61

model.predict()oczekuje, że pierwszy parametr będzie tablicą numpy. shapePodajesz listę, która nie ma atrybutu, jaki ma tablica numpy.

W przeciwnym razie twój kod wygląda dobrze, z wyjątkiem tego, że nic nie robisz z prognozą. Upewnij się, że przechowujesz go w zmiennej, na przykład w ten sposób:

prediction = model.predict(np.array(tk.texts_to_sequences(text)))
print(prediction)
nemo
źródło
czy istnieje sposób, aby wydrukować tylko najlepsze k przy użyciu prawdopodobieństwa softmax keras?
donald
1
@donald Yes. Po prostu dodaj „top_k_categorical_accuracy” do swoich danych w fit().
nemo
5

Musisz użyć tego samego Tokenizera, którego użyłeś do zbudowania swojego modelu!

W przeciwnym razie każdemu słowu da inny wektor.

Następnie używam:

phrase = "not good"
tokens = myTokenizer.texts_to_matrix([phrase])

model.predict(np.array(tokens))
Thomas Decaux
źródło
1

Wyszkoliłem sieć neuronową w Keras, aby przeprowadzała nieliniową regresję niektórych danych. To jest część mojego kodu do testowania na nowych danych przy użyciu wcześniej zapisanej konfiguracji modelu i wag.

fname = r"C:\Users\tauseef\Desktop\keras\tutorials\BestWeights.hdf5"
modelConfig = joblib.load('modelConfig.pkl')
recreatedModel = Sequential.from_config(modelConfig)
recreatedModel.load_weights(fname)
unseenTestData = np.genfromtxt(r"C:\Users\tauseef\Desktop\keras\arrayOf100Rows257Columns.txt",delimiter=" ")
X_test = unseenTestData
standard_scalerX = StandardScaler()
standard_scalerX.fit(X_test)
X_test_std = standard_scalerX.transform(X_test)
X_test_std = X_test_std.astype('float32')
unseenData_predictions = recreatedModel.predict(X_test_std)
tauseef_CuriousGuy
źródło
1

Możesz po prostu „nazwać” swój model tablicą o odpowiednim kształcie:

model(np.array([[6.7, 3.3, 5.7, 2.5]]))

Pełny przykład:

from sklearn.datasets import load_iris
from tensorflow.keras.layers import Dense
from tensorflow.keras.models import Sequential
import numpy as np

X, y = load_iris(return_X_y=True)

model = Sequential([
    Dense(16, activation='relu'),
    Dense(32, activation='relu'),
    Dense(1)])

model.compile(loss='mean_absolute_error', optimizer='adam')

history = model.fit(X, y, epochs=10, verbose=0)

print(model(np.array([[6.7, 3.3, 5.7, 2.5]])))
<tf.Tensor: shape=(1, 1), dtype=float64, numpy=array([[1.92517677]])>
Nicolas Gervais
źródło