从 imutils 到 tensorflow 的视频源

Posted

技术标签:

【中文标题】从 imutils 到 tensorflow 的视频源【英文标题】:video feed from imutils to tensorflow 【发布时间】:2018-04-02 14:23:14 【问题描述】:

我是 tensorflow 和 opencv 的新手。

我正在使用 imutils 包从网络摄像头流式传输视频以实现更高的 fps。我想将这些帧输入到我通过迁移学习训练的 CNN 初始模型中。目前我正在做以下事情:

初始化

from imutils.video import WebcamVideoStream

stream = WebcamVideoStream(src=0).start()

提供每一帧的片段

while True:

 frame=stream.read() 
 cv2.imwrite('pic.jpg',frame)
 im_data=tf.gfile.FastGFile('pic.jpg', 'rb').read()
 text=run_graph(im_data, labels, FLAGS.input_layer, FLAGS.output_layer)
 cv2.putText(frame,text,topLeftCornerOfText,font,fontScale,fontColor,lineType)
 cv2.imshow("Frame",frame)
 key = cv2.waitKey(1) & 0xFF
 fps.update()
 if key == ord('q'):
    break

我从队列中读取每一帧,将其保存为“pic.jpg”,然后将文件名作为参数传递给tf.gfile.FastGFile,以将其提供给函数run_graph,该函数将其预测为我在图像上显示的变量 text 的内容。

这行得通,但由于读写速度很慢。什么是执行此操作的有效方法或如何将视频流直接输入到 tensorflow。

cv2.VideoCapture(0) 阻塞主线程,直到从相机中读取一帧。 imutil 在单独的线程中执行此操作并将帧添加到队列中,然后在调用 read() 时在单独的线程中从队列中读取帧,这会提供高 fps。如果有其他代码可以做到这一点,并且兼容tensorflow,并且可以让我在图片上添加文本以逐帧显示预测,那也将是完美的。

【问题讨论】:

【参考方案1】:

来自datascience.stackexchange。

修改后的代码

while True:

 frame=stream.read() 
 frame = cv2.resize(frame, (299, 299), interpolation=cv2.INTER_CUBIC)
 numpy_frame = np.asarray(frame)
 numpy_frame = cv2.normalize(numpy_frame.astype('float'), None, -0.5, .5, cv2.NORM_MINMAX)
 numpy_final = np.expand_dims(numpy_frame, axis=0)
 text=run_graph(numpy_final, labels, FLAGS.input_layer, FLAGS.output_layer)
 cv2.putText(frame,text,topLeftCornerOfText,font,fontScale,fontColor,lineType)
 cv2.imshow("Frame",frame)
 key = cv2.waitKey(1) & 0xFF
 fps.update()
 if key == ord('q'):
    break

【讨论】:

以上是关于从 imutils 到 tensorflow 的视频源的主要内容,如果未能解决你的问题,请参考以下文章

imutils

markdown imutils

安装 python 模块 ImportError (dlib, imutils) raspberry pi

在Pycharm中用OpenCV的imutils模块矫正图片

pip 安装后没有名为 imutils.perspective 的模块

存储过程是不是可以调用截断 veiw 表并将数据输入到 MySql 中的视图表中[关闭]