读扣随感

Posted demsg

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了读扣随感相关的知识,希望对你有一定的参考价值。

最近读code的一个感想,记录一下

 

ptb只有decode的过程,所以所有的状态的初始化都是0,同样img2txt也是只有decode的过程

textsum是个标准的encode和decode模型,同样imgtxt2txt也是encode和decode的结合

 

dynamic rnn的可以使每个batch都pad到本batch最大的time length就行了。之所有tensorflow的seq2seq用的bucket,是因为bucket出现在dynamic之前?即时有dynamic加入bucket也会提升效率(在计算loss的时候)?bucket随机性没有dynamic好吧。不过我在做文本处理的时候,在用tfrecord产出最后结果的时候(sparse_to_dense),已经保证pad到batch了。只不过要传入dynamic函数一个length数组。另外做序列问题的时候,最后pad结尾符号的时候也很讲究,要动态的pad

 

话说tensorflow里cell的两个返回值ouput,state,这个state是个tuple,包含了隐层和状态,我说怎么传入一个最后一个state到decode就行了呢,详情参见:http://www.cnblogs.com/rocketfan/p/6257137.html

以上是关于读扣随感的主要内容,如果未能解决你的问题,请参考以下文章

随感333333

[杂谈随感-12]: 科学家的鄙视链

换工作后的随感

程序随感备录

鲁迅散文——随感录四十九

年末随感