Keras训练的warm_start

6

是否可以像在scikit-learn中使用warm_start参数一样,保存所有超参数(包括减小学习率)和以前时期的权重,继续训练一个Keras评估器?类似于以下代码:

estimator = KerasRegressor(build_fn=create_model, epochs=20, batch_size=40, warm_start=True)

具体来说,热启动应该做到以下几点:

warm_start:布尔型,可选,默认为False。当设置为True时,重复使用上一次调用fit的解决方案作为初始化,否则,只需清除上一个解决方案。

在Keras中是否有类似的功能?
1个回答

8
是的 - 这是可能的。但相对来说比较繁琐。您需要使用 train_on_batch 函数,该函数保留所有模型参数(包括优化器参数)。
这很繁琐,因为您需要自己将数据集分成批次,并且还失去了应用Callbacks和使用自动progbar的可能性。我希望在新的Keras版本中,此选项将添加到fit方法中。

哇,那肯定很烦人。我希望他们会加上这个功能。 - Nick
3
是的。我们正在考虑自己实现它,因为在 Keras 代码中可能不需要太多更改。 - Marcin Możejko
1
如果它运行良好,请考虑提交一个拉取请求!经过更多搜索,这似乎是一个常见的请求功能。 - Nick
这个有更新了吗? - Royi

网页内容由stack overflow 提供, 点击上面的
可以查看英文原文,
原文链接