tf.data.Dataset.shuffle(buffer_size)中buffer_size的理解
Posted wisir
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了tf.data.Dataset.shuffle(buffer_size)中buffer_size的理解相关的知识,希望对你有一定的参考价值。
tensorflow
中的数据集类Dataset
有一个shuffle
方法,用来打乱数据集中数据顺序,训练时非常常用。其中shuffle
方法有一个参数buffer_size
,非常令人费解,文档的解释如下:
buffer_size: A tf.int64 scalar tf.Tensor, representing the number of elements from this dataset from which the new dataset will sample.
你看懂了吗?反正我反复看了这说明十几次,仍然不知所指。
首先,Dataset
会取所有数据的前buffer_size
数据项,填充 buffer
,如下图
然后,从buffer
中随机选择一条数据输出,比如这里随机选中了item 7
,那么buffer
中item 7
对应的位置就空出来了
然后,从Dataset
中顺序选择最新的一条数据填充到buffer
中,这里是item 10
然后在从Buffer中随机选择下一条数据输出。
需要说明的是,这里的数据项item,并不只是单单一条真实数据,如果有batch size
,则一条数据项item包含了batch size
条真实数据。
shuffle是防止数据过拟合的重要手段,然而不当的buffer size,会导致shuffle无意义。
原文:https://zhuanlan.zhihu.com/p/42417456
也就是说,buffer_size的作用就是存放数据集中部分数据的缓冲区大小,每次取数据是从缓冲区中随机取出一个item,该item是一个batch,取出后再拿数据集中未在缓冲区出现过的数据去填充该缓冲区的空缺位置。
以上是关于tf.data.Dataset.shuffle(buffer_size)中buffer_size的理解的主要内容,如果未能解决你的问题,请参考以下文章
为啥是“a^=b^=a^=b;”不同于“a^=b;b^=a;a^=b;”?
1.python的 a,b=b,a+b 和 a=b b=a+b 的区别