我希望对我的Keras模型进行超参数优化。问题在于数据集很大,通常在训练中我使用
我尝试通过以下方式将所有数据加载到内存中:
但是,在执行网格搜索时,由于内存使用过大,操作系统会杀死它。我也尝试将数据集降采样到只有25%,但仍然太大。 有没有人在和我一样的情况下有经验? 请分享您执行大型数据集的超参数优化的策略。 从@dennis-ec的回答中,我尝试遵循这里SkOpt的教程:http://slashtutorial.com/ai/tensorflow/19_hyper-parameters/,这是一个非常全面的教程。
fit_generator
从磁盘批量加载数据,但是像SKlearn Gridsearch、Talos等常见的包只支持fit
方法。我尝试通过以下方式将所有数据加载到内存中:
train_generator = train_datagen.flow_from_directory(
original_dir,
target_size=(img_height, img_width),
batch_size=train_nb,
class_mode='categorical')
X_train,y_train = train_generator.next()
但是,在执行网格搜索时,由于内存使用过大,操作系统会杀死它。我也尝试将数据集降采样到只有25%,但仍然太大。 有没有人在和我一样的情况下有经验? 请分享您执行大型数据集的超参数优化的策略。 从@dennis-ec的回答中,我尝试遵循这里SkOpt的教程:http://slashtutorial.com/ai/tensorflow/19_hyper-parameters/,这是一个非常全面的教程。