密集连接网络(DenseNets)在TensorFlow中往往会占用大量内存,因为每个concat操作都存储在单独的分配中。最近的一篇论文Memory-Efficient Implementation of DenseNets表明,通过共享分配可以显著减少这种内存利用率。该论文+pytorch实现的图像说明了共享内存方法:
如何使用TensorFlow实现这个?如果无法通过Python实现,如何在具有CPU和GPU支持的Op中正确实现它?
- Pytorch高效的DenseNet实现
- Keras DenseNet实现采用"naive"分配,可以与TensorFlow后端一起使用。
我已经为必要的分配功能创建了TensorFlow功能请求。