我正在使用一个大数据集,因此我正在尝试使用train_on_batch(或fit with epoch = 1)
但是当训练开始时,就会发生这种情况:
无论我等待多少个时代,都没有改变。即使我改变批次大小,仍然会发生同样的事情:第一批具有良好的值,然后它又回到了“loss: -0.0000e+00 - acc: 0.0000e+00”。有人可以帮忙理解这里发生了什么吗?
model = Sequential()
model.add(LSTM(size,input_shape=input_shape,return_sequences=False))
model.add(Dense(output_dim))
model.add(Activation('softmax'))
model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=["accuracy"])
for e in range(nb_epoch):
for batch_X, batch_y in batches:
model.train_on_batch(batch_X,batch_y)
# or
# model.fit(batch_X,batch_y,batch_size=batch_size,nb_epoch=1,verbose=1,shuffle=True,)
但是当训练开始时,就会发生这种情况:
(0, 128)
Epoch 1/1
128/128 [==============================] - 2s - loss: 0.3262 - acc: 0.1130
(129, 257)
Epoch 1/1
128/128 [==============================] - 2s - loss: -0.0000e+00 - acc: 0.0000e+00
无论我等待多少个时代,都没有改变。即使我改变批次大小,仍然会发生同样的事情:第一批具有良好的值,然后它又回到了“loss: -0.0000e+00 - acc: 0.0000e+00”。有人可以帮忙理解这里发生了什么吗?