Tensorflow高阶读写教程

Posted luchi007

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Tensorflow高阶读写教程相关的知识,希望对你有一定的参考价值。

前言

tensorflow提供了多种读写方式,我们最常见的就是使用tf.placeholder()这种方法,使用这个方法需要我们提前处理好数据格式,不过这种处理方法也有缺陷:不便于存储和不利于分布式处理,因此,TensorFlow提供了一个标准的读写格式和存储协议,不仅如此,TensorFlow也提供了基于多线程队列的读取方式,高效而简洁,读取速度也更快,据一个博主说速度能提高10倍,相当的诱人.【下面的实验均是在tensorflow1.0的环境下进行】

tensorflow的example解析

example协议

在TensorFlow官方github文档里面,有个example.proto的文件,这个文件详细说明了TensorFlow里面的example协议,下面我将简要叙述一下。

tensorflow的example包含的是基于key-value对的存储方法,其中key是一个字符串,其映射到的是feature信息,feature包含三种类型:

  1. BytesList:字符串列表
  2. FloatList:浮点数列表
  3. Int64List:64位整数列表

以上三种类型都是列表类型,意味着都能够进行拓展,但是也是因为这种弹性格式,所以在解析的时候,需要制定解析参数,这个稍后会讲。

在TensorFlow中,example是按照行读的,这个需要时刻记住,比如存储 M×N 矩阵,使用ByteList存储的话,需要 M×N 大小的列表,按照每一行的读取方式存放。

tf.tain.example

官方给了一个example的例子:

An Example for a movie recommendation application:
   features 
     feature 
       key: "age"
       value  float_list 
         value: 29.0
       
     
     feature 
       key: "movie"
       value  bytes_list 
         value: "The Shawshank Redemption"
         value: "Fight Club"
       
     
     feature 
       key: "movie_ratings"
       value  float_list 
         value: 9.0
         value: 9.7
       
     
     feature 
       key: "suggestion"
       value  bytes_list 
         value: "Inception"
       
     

上面的例子中包含一个features,features里面包含一些feature,和之前说的一样,每个feature都是由键值对组成的,其key是一个字符串,其value是上面提到的三种类型之一。

Example中有几个一致性规则需要注意:

  1. 如果一个example的feature K 的数据类型是 T <script type="math/tex" id="MathJax-Element-3">T</script>,那么所有其他的所有feature K都应该是这个数据类型
  2. feature K 的value list的item个数可能在不同的example中是不一样多的,这个取决于你的需求
  3. 如果在一个example中没有feature k,那么如果在解析的时候指定一个默认值的话,那么将会返回一个默认值
  4. 如果一个feature k 不包含任何的value值,那么将会返回一个空的tensor而不是默认值

tf.train.SequenceExample

sequence_example表示的是一个或者多个sequences,同时还包括上下文context,其中,context表示的是feature_lists的总体特征,如数据集的长度等,feature_list包含一个key,一个value,value表示的是features集合(feature_lists),同样,官方源码也给出了sequence_example的例子:

//ontext: 
   feature: 
     key  : "locale"
     value: 
       bytes_list: 
         value: [ "pt_BR" ]
       
     
   
   feature: 
     key  : "age"
     value: 
       float_list: 
         value: [ 19.0 ]
       
     
   
   feature: 
     key  : "favorites"
     value: 
       bytes_list: 
         value: [ "Majesty Rose", "Savannah Outen", "One Direction" ]
       
     
   
 
 feature_lists: 
   feature_list: 
     key  : "movie_ratings"
     value: 
       feature: 
         float_list: 
           value: [ 4.5 ]
         
       
       feature: 
         float_list: 
           value: [ 5.0 ]
         
       
     
   
   feature_list: 
     key  : "movie_names"
     value: 
       feature: 
         bytes_list: 
           value: [ "The Shawshank Redemption" ]
         
       
       feature: 
         bytes_list: 
           value: [ "Fight Club" ]
         
       
     
   
   feature_list: 
     key  : "actors"
     value: 
       feature: 
         bytes_list: 
           value: [ "Tim Robbins", "Morgan Freeman" ]
         
       
       feature: 
         bytes_list: 
           value: [ "Brad Pitt", "Edward Norton", "Helena Bonham Carter" ]
         
       
     
   
 

一致性的sequence_example遵循以下规则:

  1. context中,所有feature k要保持数据类型一致性
  2. 一些example中的某些feature_lists L可能会丢失,如果在解析的时候允许为空的话,那么在解析的时候回返回一个空的list
  3. feature_lists可能是空的
  4. 如果一个feature_list是非空的,那么其里面的所有feature都必须是一个数据类型
  5. 如果一个feature_list是非空的,那么对于里面的feature的长度是不是需要一样的,这个取决于解析时候的参数

tensorflow 的parse example解析

在官方代码*[parsing_ops.py](https://github.com/tensorflow/tensorflow/blob/
master/tensorflow/python/ops/parsing_ops.py)*中有关于parse example的详细介绍,我在这里再叙述一下。

tf.parse_example

来看tf.parse_example的方法定义:

def parse_example(serialized, features, name=None, example_names=None)

parse_example是把example解析为词典型的tensor
参数含义:
serialized:一个batch的序列化的example
features:解析example的规则
name:当前操作的名字
example_name:当前解析example的proto名称

这里重点要说的是第二个参数,也就是features,features是把serialized的example中按照键值映射到三种tensor: 1,VarlenFeature 2, SparseFeature 3,FixedLenFeature
下面对这三种映射方式做一个简要的叙述:

VarlenFeature


是按照键值把example的value映射到SpareTensor对象,假设我们有如下的serialized数据:

 serialized = [
    features
       feature  key: "ft" value  float_list  value: [1.0, 2.0]    ,
    features
       feature [],
    features
       feature  key: "ft" value  float_list  value: [3.0]   
  ]

使用VarLenFeatures方法:

features=
    "ft":tf.VarLenFeature(tf.float32)

那么我们将得到的是:

"ft": SparseTensor(indices=[[0, 0], [0, 1], [2, 0]],
                      values=[1.0, 2.0, 3.0],
                      dense_shape=(3, 2)) 

可见,显示的indices是ft值的索引,values是值,dense_shape是indices的shape

FixedLenFeature


而FixedLenFeature是按照键值对将features映射到大小为[serilized.size(),df.shape]的矩阵,这里的FixLenFeature指的是每个键值对应的feature的size是一样的。对于上面的例子,如果使用:

features: 
      "ft": FixedLenFeature([2], dtype=tf.float32, default_value=-1),
  

那么我们将得到:

"ft": [[1.0, 2.0], [3.0, -1.0]]

可见返回的值是一个[2,2]的矩阵,如果返回的长度不足给定的长度,那么将会使用默认值去填充。
【注意:】


事实上,在TensorFlow1.0环境下,根据官方文档上的内容,我们是能够得到VarLenFeature的值,但是得不到FixLenFeature的值,因此建议如果使用定长的FixedLenFeature,一定要保证对应的数据是等长的。


做个试验来说明:

#coding=utf-8

import tensorflow as tf
import os
keys=[[1.0],[],[2.0,3.0]]
sess=tf.InteractiveSession()
sess.run(tf.global_variables_initializer())

def make_example(key):
    example = tf.train.Example(features=tf.train.Features(
        feature=
            'ft':tf.train.Feature(float_list=tf.train.FloatList(value=key))
        
    ))
    return example

filename="tmp.tfrecords"
if os.path.exists(filename):
    os.remove(filename)
writer = tf.python_io.TFRecordWriter(filename)
for key in keys:
    ex = make_example(key)
    writer.write(ex.SerializeToString())
writer.close()

reader = tf.TFRecordReader()
filename_queue = tf.train.string_input_producer(["tmp.tfrecords"],num_epochs=1)
_,serialized_example =reader.read(filename_queue)

# coord = tf.train.Coordinator()
# threads = tf.train.start_queue_runners(sess=sess,coord=coord)

batch = tf.train.batch(tensors=[serialized_example],batch_size=3)

features=
    "ft":tf.VarLenFeature(tf.float32)

#key_parsed = tf.parse_single_example(make_example([1,2,3]).SerializeToString(),features)
key_parsed = tf.parse_example(batch,features)
#start the queue
print tf.contrib.learn.run_n(key_parsed)

#[]means scalar

features=
    "ft":tf.FixedLenFeature(shape=[2],dtype=tf.float32)


key_parsed = tf.parse_example(batch,features)

print tf.contrib.learn.run_n(key_parsed)

结果返回如下:

['ft': SparseTensorValue(indices=array([[0, 0],
       [2, 0],
       [2, 1]]), values=array([ 1.,  2.,  3.], dtype=float32), dense_shape=array([3, 2]))]

InvalidArgumentError (see above for traceback): Name: <unknown>, Key: ft, Index: 0.  Number of float values != expected.  Values size: 1 but output shape: [2]

可见,对于VarLenFeature,是能返回正常结果的,但是对于FixedLenFeature则返回size不对,可见如果对于边长的数据还是不要使用FixedLenFeature为好。

如果把数据设置为[[1.0,2.0],[2.0,3.0]],那么FixedLenFeature返回的是:

['ft': array([[ 1.,  2.],
       [ 2.,  3.]], dtype=float32)]

这是正确的结果。

SparseFeature可以从下面的例子来说明:

`serialized`:
  ```
  [
    features 
      feature  key: "val" value  float_list  value: [ 0.5, -1.0 ]   
      feature  key: "ix" value  int64_list  value: [ 3, 20 ]   
    ,
    features 
      feature  key: "val" value  float_list  value: [ 0.0 ]   
      feature  key: "ix" value  int64_list  value: [ 42 ]   
    
  ]
  ```
  And arguments
  ```
  example_names: ["input0", "input1"],
  features: 
      "sparse": SparseFeature(
          index_key="ix", value_key="val", dtype=tf.float32, size=100),
  
  ```
  Then the output is a dictionary:
  ```python
  
    "sparse": SparseTensor(
        indices=[[0, 3], [0, 20], [1, 42]],
        values=[0.5, -1.0, 0.0]
        dense_shape=[2, 100]),
  
  ```

现在明白了Example的协议和tf.parse_example的方法之后,我们再看看看几个简单的parse_example

tf.parse_single_example

区别于tf.parse_example,tf.parse_single_example只是少了一个batch而已,其余的都是一样的,我们看代码:

#coding=utf-8

import tensorflow as tf
import os

sess=tf.InteractiveSession()
sess.run(tf.global_variables_initializer())

def make_example(key):
    example = tf.train.Example(features=tf.train.Features(
        feature=
            'ft':tf.train.Feature(float_list=tf.train.FloatList(value=key))
        
    ))
    return example

features=
    "ft":tf.FixedLenFeature(shape=[3],dtype=tf.float32)


key_parsed = tf.parse_single_example(make_example([1.0,2.0,3.0]).SerializeToString(),features)

print tf.contrib.learn.run_n(key_parsed)

结果返回为:

['ft': array([ 1.,  2.,  3.], dtype=float32)]

tf.parse_single_sequence_example

tf.parse_single_sequence_example对应的是tf.train,SequenceExample,我们以下面代码说明,single_sequence_example的用法:

#coding=utf-8

import tensorflow as tf
import os
keys=[[1.0,2.0],[2.0,3.0]]
sess=tf.InteractiveSession()
sess.run(tf.global_variables_initializer())

def make_example(locale,age,score,times):

    example = tf.train.SequenceExample(
        context=tf.train.Features(
            feature=
            "locale":tf.train.Feature(bytes_list=tf.train.BytesList(value=[locale])),
            "age":tf.train.Feature(int64_list=tf.train.Int64List(value=[age]))
        ),
        feature_lists=tf.train.FeatureLists(
            feature_list=
            "movie_rating":tf.train.FeatureList(feature=[tf.train.Feature(float_list=tf.train.FloatList(value=score)) for i in range(times)])
            
        )
    )
    return example.SerializeToString()

context_features = 
    "locale": tf.FixedLenFeature([],dtype=tf.string),
    "age": tf.FixedLenFeature([],dtype=tf.int64)

sequence_features = 
    "movie_rating": tf.FixedLenSequenceFeature([3], dtype=tf.float32,allow_missing=True)


context_parsed, sequence_parsed  = tf.parse_single_sequence_example(make_example("china",24,[1.0,3.5,4.0],2),context_features=context_features,sequence_features=sequence_features)

print tf.contrib.learn.run_n(context_parsed)
print tf.contrib.learn.run_n(sequence_parsed)

结果打印为:

['locale': 'china', 'age': 24]

['movie_rating': array([[ 1. ,  3.5,  4. ],
       [ 1. ,  3.5,  4. ]], dtype=float32)]

tf.parse_single_sequence_example的自动补齐

在常用的文本处理方面,由于文本经常是非定长的,因此需要经常补齐操作,例如使用CNN进行文本分类的时候就需要进行padding操作,通常我们把padding的索引设置为0,而且在文本预处理的时候也需要额外的代码进行处理,而TensorFlow提供了一个比较好的自动补齐工具,就是在tf.train.batch里面把参数dynamic_pad设置成True,样例如下:

#coding=utf-8

import tensorflow as tf
import os
keys=[[1,2],[2]]
sess=tf.InteractiveSession()
sess.run(tf.global_variables_initializer())



def make_example(key):

    example = tf.train.SequenceExample(
        context=tf.train.Features(
            feature=
            "length":tf.train.Feature(int64_list=tf.train.Int64List(value=[len(key)]))
        ),
        feature_lists=tf.train.FeatureLists(
            feature_list=
            "index":tf.train.FeatureList(feature=[tf.train.Feature(int64_list=tf.train.Int64List(value=[key[i]])) for i in range(len(key))])
            
        )
    )
    return example.SerializeToString()


filename="tmp.tfrecords"
if os.path.exists(filename):
    os.remove(filename)
writer = tf.python_io.TFRecordWriter(filename)
for key in keys:
    ex = make_example(key)
    writer.write(ex)
writer.close()

reader = tf.TFRecordReader()
filename_queue = tf.train.string_input_producer(["tmp.tfrecords"],num_epochs=1)
_,serialized_example =reader.read(filename_queue)

# coord = tf.train.Coordinator()
# threads = tf.train.start_queue_runners(sess=sess,coord=coord)

context_features=
    "length":tf.FixedLenFeature([],dtype=tf.int64)

sequence_features=
    "index":tf.FixedLenSequenceFeature([],dtype=tf.int64)


context_parsed, sequence_parsed = tf.parse_single_sequence_example(
    serialized=serialized_example,
    context_features=context_features,
    sequence_features=sequence_features
)

batch_data = tf.train.batch(tensors=[sequence_parsed['index']],batch_size=2,dynamic_pad=True)
result = tf.contrib.learn.run_n("index":batch_data)

print result

打印结果如下:

['index': array([[1, 2],
       [2, 0]])]

可见还是比较好用的功能

tensorflow的TFRecords读取

在上面的部分,我们展示了关于tensorflow的example的用法和解析过程,那么我们该如何使用它们呢?其实在上面的几段代码里面也有体现,就是TFRecords进行读写,TFRecords读写其实很简单,tensorflow提供了两个方法:

  1. tf.TFRecordReader
  2. tf.TFRecordWriter

首先我们看下第二个,也就是tf.TFRecordWritre,之所以先看第二个的原因是第一个Reader将和batch一起在下一节讲述。
关于TFRecordWriter,可以用下面代码说明,假设serilized_object是一个已经序列化好的example,那么其写的过程如下:

writer = tf.python_io.TFRecordWriter(filename)
writer.write(serilized_object)
writer.close()

tensorflow的多线程batch读取

这一节主要关注的是基于TFRecords的读取的方法和batch操作,我们可以回看一下之前的博客的batch操作:

Batching

def read_my_file_format(filename_queue):
  reader = tf.SomeReader()
  key, record_string = reader.read(filename_queue)
  example, label = tf.some_decoder(record_string)
  processed_example = some_processing(example)
  return processed_example, label

def input_pipeline(filenames, batch_size, num_epochs=None):
  filename_queue = tf.train.string_input_producer(
      filenames, num_epochs=num_epochs, shuffle=True)
  example, label = read_my_file_format(filename_queue)
  # min_after_dequeue defines how big a buffer we will randomly sample
  #   from -- bigger means better shuffling but slower start up and more
  #   memory used.
  # capacity must be larger than min_after_dequeue and the amount larger
  #   determines the maximum we will prefetch.  Recommendation:
  #   min_after_dequeue + (num_threads + a small safety margin) * batch_size
  min_after_dequeue = 10000
  capacity = min_after_dequeue + 3 * batch_size
  example_batch, label_batch = tf.train.shuffle_batch(
      [example, label], batch_size=batch_size, capacity=capacity,
      min_after_dequeue=min_after_dequeue)
  return example_batch, label_batch

这里我们把tf.SomeReader()换成tf.TFRecordReader()即可,然后再把tf.some_decoder换成我们自定义的decoder,当然在decoder里面我们可以自己指定parser(也就是上文提到的内容),然后我们使用tf.train.batch或者tf.train.shuffle_batch等操作获取到我们需要送入网络训练的batch参数即可。

多线程读取batch实例

我使用了softmax回归做一个简单的示例,下面是一个多线程读取batch的实例主要代码:

#coding=utf-8
"""
author:luchi
date:24/4/2017
desc:training logistic regression
"""
import tensorflow as tf
from model import Logistic

def read_my_file_format(filename_queue):
    reader = tf.TFRecordReader()
    _,serilized_example = reader.read(filename_queue)

    #parsing example
    features = tf.parse_single_example(serilized_example,
        features=
            "data":tf.FixedLenFeature([2],tf.float32),
            "label":tf.FixedLenFeature([],tf.int64)
        

    )

    #decode from raw data,there indeed do not to change ,but to show common step , i write a case here

    # data = tf.cast(features['data'],tf.float32)
    # label = tf.cast(features['label'],tf.int64)

    return features['data'],features['label']


def input_pipeline(filenames, batch_size, num_epochs=100):


    filename_queue = tf.train.string_input_producer([filenames],num_epochs=num_epochs)
    data,label=read_my_file_format(filename_queue)

    datas,labels = tf.train.shuffle_batch([data,label],batch_size=batch_size,num_threads=5,
                                          capacity=1000+3*batch_size,min_after_dequeue=1000)
    return datas,labels

class config():
    data_dim=2
    label_num=2
    learining_rate=0.1
    init_scale=0.01

def run_training():

    with tf.Graph().as_default(), tf.Session() as sess:

        datas,labels = input_pipeline("reg.tfrecords",32)

        c = config()
        initializer = tf.random_uniform_initializer(-1*c.init_scale,1*c.init_scale)

        with tf.variable_scope("model",initializer=initializer):
            model = Logistic(config=c,data=datas,label=labels)

        fetches = [model.train_op,model.accuracy,model.loss]
        feed_dict=

        #init
        init_op = tf.group(tf.global_variables_initializer(),
                       tf.local_variables_initializer())
        sess.run(init_op)

        coord = tf.train.Coordinator()
        threads = tf.train.start_queue_runners(sess=sess,coord=coord)
        try:
            while not coord.should_stop():

                # fetches = [model.train_op,model.accuracy,model.loss]
                # feed_dict=
                # feed_dict[model.data]=sess.run(datas)
                # feed_dict[model.label]=sess.run(labels)
                # _,accuracy,loss= sess.run(fetches,feed_dict)
                _,accuracy,loss= sess.run(fetches,feed_dict)
                print("the loss is %f and the accuracy is %f"%(loss,accuracy))
        except tf.errors.OutOfRangeError:
            print("done training")
        finally:
            coord.request_stop()
        coord.join(threads)
        sess.close()

def main():
    run_training()

if __name__=='__main__':
    main()

这里有几个坑需要说明一下:

  1. 使用了string_input_producer指定num_epochs之后,在初始化的时候需要使用:
init_op = tf.group(tf.global_variables_initializer(),
                       tf.local_variables_initializer())
sess.run(init_op)

要不然会报错
2. 使用了从文件读取batch之后,就不需要设置tf.placeholder了【非常重要】,我在这个坑里呆了好久,如果使用了tf.placeholder一是会报错为tensor对象能送入到tf.placeholder中,另外一个是就算使用sess.run(batch_data),也会存在模型不能收敛的问题,所以切记切记

结果显示如下:

the loss is 0.156685 and the accuracy is 0.937500
the loss is 0.185438 and the accuracy is 0.968750
the loss is 0.092628 and the accuracy is 0.968750
the loss is 0.059271 and the accuracy is 1.000000
the loss is 0.088685 and the accuracy is 0.968750
the loss is 0.271341 and the accuracy is 0.968750
the loss is 0.244190 and the accuracy is 0.968750
the loss is 0.136841 and the accuracy is 0.968750
the loss is 0.115607 and the accuracy is 0.937500
the loss is 0.080254 and the accuracy is 1.000000

完整的代码见我的GitHub

后记

关于tfrecords的batch操作,我一共折腾了好几天,中间也是磕磕绊绊,走过各种坑,现在也终于算是明白了一些,也算是没白费功夫,不过使用这种特性之后,一是提高了速度,而是减少了写代码的量,当然因为数据成了序列化的,也容易检查数据是否有误,最后,希望明天面试顺利吧,2017年4月24,于北京

以上是关于Tensorflow高阶读写教程的主要内容,如果未能解决你的问题,请参考以下文章

TensorFlow2.0教程-Keras 快速入门:用于构建和训练深度学习模型的高阶 API

《30天吃掉那只 TensorFlow2.0》 3-3 高阶API示范

TensorFlow2 入门指南 | 06 TensorFLow2 高阶操作汇总

TensorFlow2.0TensorFlow 2.0高阶API: Keras—使用Keras基于Squential的序列编排模式创建神经网络过程(附带源码)

高阶Shell/Tensorflow

tensorflow高阶操作