LSTM循环神经网络同时预测多个时间步长和多个特征

7
我有一个数据集,其中包括4个温度传感器在建筑物内/外测量的不同位置:enter image description here 我正在训练一个模型,该模型将形状为(96, 4)的输入作为四个传感器的96个时间步长。我想要预测未来每个传感器的48个点,形状为(48, 4)。
到目前为止,我已经实现了一种只能预测一个传感器的方法,并且大多数是按照TensorFlow教程中的这一部分进行的。
我的训练X的形状为(6681, 96, 4),训练Y的形状为(6681, 48),因为我只限制了一个传感器。如果我在训练时将训练Y更改为(6681, 48, 4),当然会遇到ValueError: Dimensions must be equal, but are 48 and 4 for 'loss/dense_loss/sub' (op: 'Sub') with input shapes: [?,48], [?,48,4].的错误,因为我的模型不期望此形状。
我卡住的地方在于LSTM层的输入/输出形状。 我就是无法弄清楚如何最终得到一个形状为(BATCH_SIZE,48, 4)的形状。
这是我目前的层设置:
tf.keras.backend.clear_session()


print("Input shape", x_train_multi.shape[-2:])

multi_step_model = tf.keras.models.Sequential()
multi_step_model.add(tf.keras.layers.LSTM(32,
                                          return_sequences=True,
                                          input_shape=x_train_multi.shape[-2:]))
multi_step_model.add(tf.keras.layers.Dropout(rate=0.5)) # Dropout layer after each LSTM to reduce overfitting.
multi_step_model.add(tf.keras.layers.LSTM(16, activation='relu'))
multi_step_model.add(tf.keras.layers.Dropout(rate=0.5)) 
# The argument to Dense shapes the results to give the number of time steps we want.
# But how do I make it keep 4 features as well?!?
multi_step_model.add(tf.keras.layers.Dense(future_target / STEP))
multi_step_model.compile(optimizer=tf.keras.optimizers.RMSprop(clipvalue=1.0), loss='mae')

# Shape of predictions
for x, y in val_data_multi.take(1):
    print ("Prediction shape", multi_step_model.predict(x).shape)

一些想法:

  • 我是不是漏掉了什么或者忘记设置输出特征/维度的参数?
  • 我需要为预测每个传感器训练单独的RNN吗?

谢谢! :)

1个回答

3

最终,我通过使用一个具有所需时间步数乘以要预测的特征数量的Dense层来实现这一点。然后,在此之后,我将其重塑为所需的输出形状。

我不确定这是否是完成此操作的最佳方法,但它可以正常工作。

#Experimental code for predicting multiple sensors
import tensorflow.keras.layers as tfl

tf.keras.backend.clear_session()


print("Input shape", x_train_multi.shape[-2:]) 
# Input shape (96, 4)

multi_step_model = tf.keras.Sequential()
multi_step_model.add(tf.keras.layers.LSTM(32, return_sequences=True, input_shape=x_train_multi.shape[-2:]))
multi_step_model.add(tf.keras.layers.Dropout(rate=0.5))
multi_step_model.add(tf.keras.layers.LSTM(16, return_sequences=False, activation='relu'))
multi_step_model.add(tf.keras.layers.Dropout(rate=0.5)) 
print("After LSTMs", multi_step_model.output_shape)  
# After LSTMs (None, 16)
multi_step_model.add(tf.keras.layers.Dense((future_target / STEP) * 4))
print("After Dense Layer", multi_step_model.output_shape) 
#  After Dense Layer (None, 192)
multi_step_model.add(tf.keras.layers.Reshape((int(future_target / STEP), 4)))
print("After Reshape", multi_step_model.output_shape)
# After Reshape (None, 48, 4)


multi_step_model.compile(optimizer=tf.keras.optimizers.RMSprop(clipvalue=1.0), loss='mae')

# Shape of predictions
for x, y in val_data_multi.take(1):
    print ("Prediction shape", multi_step_model.predict(x).shape)
    # Prediction shape (512, 48, 4)

加上AveragePooling1D(pool_size=(2))怎么样? - LBerger
2
不要在LSTM中使用Dropout层。它们有自己的recurrent_dropout参数。总体而言,RNN与dropout不兼容。 - David Arenburg

网页内容由stack overflow 提供, 点击上面的
可以查看英文原文,
原文链接