TF包装:Keras与Tensorpack的表现

我对Keras与其他TF Wrappers(如Tensorpack)的训练表现有疑问.

a Q&A session期间,Keras的作者声称该软件包没有性能成本:

Keras provides a simpler, quicker way to build and train models in TensorFlow, at no performance cost since the models are still being run by the same TensorFlow engine.

另一方面,Tensorpack github声称它比Keras快2倍,即使有一个微小的CNN:

Tensorpack trainer is almost always faster than feed_dict based wrappers. Even on a tiny CNN example, the training runs 2x faster than the equivalent Keras code.

所以现在我想知道以下内容:谁是对的?
在训练中,两倍对我来说非常重要.

最佳答案
我是tensorpack的作者.
主要性能改进的原因总结在文档的输入管道页面中:http://tensorpack.readthedocs.io/en/latest/tutorial/input-source.html
这些参数适用于单GPU培训案例.对于多GPU培训,我们可以提高性能,以匹配Google的基准代码.

@jdehesa的答案是不对的,我们从不使用TFRecord来读取数据(尽管它能够这样做,但我没有看到太多的优势).您可以通过纯Python阅读所有内容并获得此速度.

此外,2倍加速可能有点过时,我知道Keras一直在减少框架开销方面做出改进.

转载注明原文:TF包装:Keras与Tensorpack的表现 - 代码日志