tf 数据读取

Posted 逗比青年

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了tf 数据读取相关的知识,希望对你有一定的参考价值。

tf.train.batch(
    tensors,
    batch_size,
    num_threads=1,
    capacity=32,
    enqueue_many=False,
    shapes=None,
    dynamic_pad=False,
    allow_smaller_final_batch=False,
    shared_name=None,
    name=None
)

  

  • tensors:排列的张量或词典。
  • batch_size:从队列中提取新的批量大小。
  • num_threads:排队的线程数量tensors如果批次是不确定的num_threads > 1
  • capacity:一个整数。队列中元素的最大数量。
  • enqueue_many:每张张量是否tensors都是一个例子。
  • shapes:(可选)每个示例的形状。默认为推断的形状tensors
  • dynamic_pad:布尔值。在输入形状中允许可变尺寸。给定的尺寸在出列时填充,以便批次内的张量具有相同的形状。
  • allow_smaller_final_batch:(可选)布尔值。如果True,如果队列中剩余物品不足,则允许最终批次更小。
  • shared_name: (可选的)。如果设置,该队列将在多个会话中以给定名称共享。
  • name:(可选)操作的名称。

 

tf.train.slice_input_producer(
    tensor_list,
    num_epochs=None,
    shuffle=True,
    seed=None,
    capacity=32,
    shared_name=None,
    name=None
)

  

  • tensor_listTensor对象列表每一个Tensor都 tensor_list必须在第一维中具有相同的尺寸。
  • num_epochs:一个整数(可选)。如果指定,则会在生成错误之前生成slice_input_producer 每个切片num_epochs时间OutOfRange如果没有指定,slice_input_producer可以循环切片无限次数。
  • shuffle:布尔值。如果为真,整数在每个时期内随机洗牌。
  • seed:一个整数(可选)。种子使用,如果洗牌==真。
  • capacity:一个整数。设置队列容量。
  • shared_name: (可选的)。如果设置,该队列将在多个会话中以给定名称共享。
  • name:操作的名称(可选)。

 

核心步骤:

  1. 调用 tf.train.slice_input_producer,从 本地文件里抽取tensor,准备放入Filename Queue(文件名队列)中;
  2. 调用 tf.train.batch,从文件名队列中提取tensor,使用单个或多个线程,准备放入文件队列;
  3. 调用 tf.train.Coordinator() 来创建一个线程协调器,用来管理之后在Session中启动的所有线程;
  4. 调用tf.train.start_queue_runners, 启动入队线程,由多个或单个线程,按照设定规则,把文件读入Filename Queue中。函数返回线程ID的列表,一般情况下,系统有多少个核,就会启动多少个入队线程(入队具体使用多少个线程在tf.train.batch中定义);
  5. 文件从 Filename Queue中读入内存队列的操作不用手动执行,由tf自动完成;
  6. 调用sess.run 来启动数据出列和执行计算;
  7. 使用 coord.should_stop()来查询是否应该终止所有线程,当文件队列(queue)中的所有文件都已经读取出列的时候,会抛出一个 OutofRangeError 的异常,这时候就应该停止Sesson中的所有线程了;
  8. 使用coord.request_stop()来发出终止所有线程的命令,使用coord.join(threads)把线程加入主线程,等待threads结束。

 

Queue和Coordinator操作事例:

import tensorflow as tf
import numpy as np

# 样本个数
sample_num=5
# 设置迭代次数
epoch_num = 2
# 设置一个批次中包含样本个数
batch_size = 3
# 计算每一轮epoch中含有的batch个数
batch_total = int(sample_num/batch_size)+1

# 生成4个数据和标签
def generate_data(sample_num=sample_num):
    labels = np.asarray(range(0, sample_num))
    images = np.random.random([sample_num, 224, 224, 3])
    print(‘image size {},label size :{}‘.format(images.shape, labels.shape))
    return images,labels

def get_batch_data(batch_size=batch_size):
    images, label = generate_data()
    # 数据类型转换为tf.float32
    images = tf.cast(images, tf.float32)
    label = tf.cast(label, tf.int32)

    #从tensor列表中按顺序或随机抽取一个tensor准备放入文件名称队列
    input_queue = tf.train.slice_input_producer([images, label], num_epochs=epoch_num, shuffle=False)

    #从文件名称队列中读取文件准备放入文件队列
    image_batch, label_batch = tf.train.batch(input_queue, batch_size=batch_size, num_threads=2, capacity=64, allow_smaller_final_batch=False)
    return image_batch, label_batch

image_batch, label_batch = get_batch_data(batch_size=batch_size)


with tf.Session() as sess:

    # 先执行初始化工作
    sess.run(tf.global_variables_initializer())
    sess.run(tf.local_variables_initializer())

    # 开启一个协调器
    coord = tf.train.Coordinator()
    # 使用start_queue_runners 启动队列填充
    threads = tf.train.start_queue_runners(sess, coord)

    try:
        while not coord.should_stop():
            print (‘************‘)
            # 获取每一个batch中batch_size个样本和标签
            image_batch_v, label_batch_v = sess.run([image_batch, label_batch])
            print(image_batch_v.shape, label_batch_v)
    except tf.errors.OutOfRangeError:  #如果读取到文件队列末尾会抛出此异常
        print("done! now lets kill all the threads……")
    finally:
        # 协调器coord发出所有线程终止信号
        coord.request_stop()
        print(‘all threads are asked to stop!‘)
    coord.join(threads) #把开启的线程加入主线程,等待threads结束
    print(‘all threads are stopped!‘)

  

输出:

************
((3, 224, 224, 3), array([0, 1, 2], dtype=int32))
************
((3, 224, 224, 3), array([3, 4, 0], dtype=int32))
************
((3, 224, 224, 3), array([1, 2, 3], dtype=int32))
************
done! now lets kill all the threads……
all threads are asked to stop!
all threads are stopped!

  

以上程序在 tf.train.slice_input_producer 函数中设置了 num_epochs 的数量, 所以在文件队列末尾有结束标志,读到这个结束标志的时候抛出 OutofRangeError 异常,就可以结束各个线程了。 

如果不设置 num_epochs 的数量,则文件队列是无限循环的,没有结束标志,程序会一直执行下去。

 

以上是关于tf 数据读取的主要内容,如果未能解决你的问题,请参考以下文章

C错误从流式套接字读取数据包

text TF数据读取机制

Tensorflow机器学习入门——读取数据

TensorFlow读取CSV数据

tf读取图片,matplotlib可视化

tensorflow数据读取机制tf.train.slice_input_producer 和 tf.train.batch 函数