Python3 以网络摄像头 fps 处理和显示网络摄像头流
Posted
技术标签:
【中文标题】Python3 以网络摄像头 fps 处理和显示网络摄像头流【英文标题】:Python3 process and display webcam stream at the webcams fps 【发布时间】:2020-10-15 23:14:30 【问题描述】:如何读取相机并以相机帧速率显示图像?
我想从我的网络摄像头连续读取图像(进行一些快速预处理),然后在窗口中显示图像。这应该以我的网络摄像头提供的帧速率 (29 fps) 运行。 似乎 OpenCV GUI 和 Tkinter GUI 太慢了,无法以这样的帧速率显示图像。这些显然是我实验中的瓶颈。即使没有预处理,图像的显示速度也不够快。我在 MacBook Pro 2018 上。
这是我尝试过的。始终使用 OpenCV 读取网络摄像头:
一切都发生在主线程中,图像以 OpenCV 显示:12 fps 读取相机并在单独的线程中进行预处理,在主线程中使用 OpenCV 显示图像:20 fps 多线程如上,但不显示图像:29 fps 像上面一样多线程,但是用 Tkinter 显示图像:不知道确切的 fps,但感觉就像代码如下:
单循环,OpenCV GUI:
import cv2
import time
def main():
cap = cv2.VideoCapture(0)
window_name = "FPS Single Loop"
cv2.namedWindow(window_name, cv2.WINDOW_NORMAL)
start_time = time.time()
frames = 0
seconds_to_measure = 10
while start_time + seconds_to_measure > time.time():
success, img = cap.read()
img = img[:, ::-1] # mirror
time.sleep(0.01) # simulate some processing time
cv2.imshow(window_name, img)
cv2.waitKey(1)
frames = frames + 1
cv2.destroyAllWindows()
print(
f"Captured frames in seconds_to_measure seconds. FPS: frames/seconds_to_measure"
)
if __name__ == "__main__":
main()
Captured 121 in 10 seconds. FPS: 12.1
多线程,opencv gui:
import logging
import time
from queue import Full, Queue
from threading import Thread, Event
import cv2
logger = logging.getLogger("VideoStream")
def setup_webcam_stream(src=0):
cap = cv2.VideoCapture(src)
width, height = (
cap.get(cv2.CAP_PROP_FRAME_WIDTH),
cap.get(cv2.CAP_PROP_FRAME_HEIGHT),
)
logger.info(f"Camera dimensions: width, height")
logger.info(f"Camera FPS: cap.get(cv2.CAP_PROP_FPS)")
grabbed, frame = cap.read() # Read once to init
if not grabbed:
raise IOError("Cannot read video stream.")
return cap
def video_stream_loop(video_stream: cv2.VideoCapture, queue: Queue, stop_event: Event):
while not stop_event.is_set():
try:
success, img = video_stream.read()
# We need a timeout here to not get stuck when no images are retrieved from the queue
queue.put(img, timeout=1)
except Full:
pass # try again with a newer frame
def processing_loop(input_queue: Queue, output_queue: Queue, stop_event: Event):
while not stop_event.is_set():
try:
img = input_queue.get()
img = img[:, ::-1] # mirror
time.sleep(0.01) # simulate some processing time
# We need a timeout here to not get stuck when no images are retrieved from the queue
output_queue.put(img, timeout=1)
except Full:
pass # try again with a newer frame
def main():
stream = setup_webcam_stream(0)
webcam_queue = Queue()
processed_queue = Queue()
stop_event = Event()
window_name = "FPS Multi Threading"
cv2.namedWindow(window_name, cv2.WINDOW_NORMAL)
start_time = time.time()
frames = 0
seconds_to_measure = 10
try:
Thread(
target=video_stream_loop, args=[stream, webcam_queue, stop_event]
).start()
Thread(
target=processing_loop, args=[webcam_queue, processed_queue, stop_event]
).start()
while start_time + seconds_to_measure > time.time():
img = processed_queue.get()
cv2.imshow(window_name, img)
cv2.waitKey(1)
frames = frames + 1
finally:
stop_event.set()
cv2.destroyAllWindows()
print(
f"Captured frames frames in seconds_to_measure seconds. FPS: frames/seconds_to_measure"
)
print(f"Webcam queue: webcam_queue.qsize()")
print(f"Processed queue: processed_queue.qsize()")
if __name__ == "__main__":
logging.basicConfig(level=logging.DEBUG)
main()
INFO:VideoStream:Camera dimensions: (1280.0, 720.0)
INFO:VideoStream:Camera FPS: 29.000049
Captured 209 frames in 10 seconds. FPS: 20.9
Webcam queue: 0
Processed queue: 82
在这里,您可以看到在第二个队列中剩余的图像被提取以显示它们。
当我取消注释这两行时:
cv2.imshow(window_name, img)
cv2.waitKey(1)
那么输出是:
INFO:VideoStream:Camera dimensions: (1280.0, 720.0)
INFO:VideoStream:Camera FPS: 29.000049
Captured 291 frames in 10 seconds. FPS: 29.1
Webcam queue: 0
Processed queue: 0
因此它能够以网络摄像头的速度处理所有帧,而无需 GUI 显示它们。
多线程,Tkinter gui:
import logging
import time
import tkinter
from queue import Full, Queue, Empty
from threading import Thread, Event
import PIL
from PIL import ImageTk
import cv2
logger = logging.getLogger("VideoStream")
def setup_webcam_stream(src=0):
cap = cv2.VideoCapture(src)
width, height = cap.get(cv2.CAP_PROP_FRAME_WIDTH), cap.get(cv2.CAP_PROP_FRAME_HEIGHT)
logger.info(f"Camera dimensions: width, height")
logger.info(f"Camera FPS: cap.get(cv2.CAP_PROP_FPS)")
grabbed, frame = cap.read() # Read once to init
if not grabbed:
raise IOError("Cannot read video stream.")
return cap, width, height
def video_stream_loop(video_stream: cv2.VideoCapture, queue: Queue, stop_event: Event):
while not stop_event.is_set():
try:
success, img = video_stream.read()
# We need a timeout here to not get stuck when no images are retrieved from the queue
queue.put(img, timeout=1)
except Full:
pass # try again with a newer frame
def processing_loop(input_queue: Queue, output_queue: Queue, stop_event: Event):
while not stop_event.is_set():
try:
img = input_queue.get()
img = cv2.cvtColor(img, cv2.COLOR_BGR2RGB)
img = img[:, ::-1] # mirror
time.sleep(0.01) # simulate some processing time
# We need a timeout here to not get stuck when no images are retrieved from the queue
output_queue.put(img, timeout=1)
except Full:
pass # try again with a newer frame
class App:
def __init__(self, window, window_title, image_queue: Queue, image_dimensions: tuple):
self.window = window
self.window.title(window_title)
self.image_queue = image_queue
# Create a canvas that can fit the above video source size
self.canvas = tkinter.Canvas(window, width=image_dimensions[0], height=image_dimensions[1])
self.canvas.pack()
# After it is called once, the update method will be automatically called every delay milliseconds
self.delay = 1
self.update()
self.window.mainloop()
def update(self):
try:
frame = self.image_queue.get(timeout=0.1) # Timeout to not block this method forever
self.photo = ImageTk.PhotoImage(image=PIL.Image.fromarray(frame))
self.canvas.create_image(0, 0, image=self.photo, anchor=tkinter.NW)
self.window.after(self.delay, self.update)
except Empty:
pass # try again next time
def main():
stream, width, height = setup_webcam_stream(0)
webcam_queue = Queue()
processed_queue = Queue()
stop_event = Event()
window_name = "FPS Multi Threading"
try:
Thread(target=video_stream_loop, args=[stream, webcam_queue, stop_event]).start()
Thread(target=processing_loop, args=[webcam_queue, processed_queue, stop_event]).start()
App(tkinter.Tk(), window_name, processed_queue, (width, height))
finally:
stop_event.set()
print(f"Webcam queue: webcam_queue.qsize()")
print(f"Processed queue: processed_queue.qsize()")
if __name__ == "__main__":
logging.basicConfig(level=logging.DEBUG)
main()
INFO:VideoStream:Camera dimensions: (1280.0, 720.0)
INFO:VideoStream:Camera FPS: 29.000049
Webcam queue: 0
Processed queue: 968
【问题讨论】:
您是否知道在 python 中“多线程”并不意味着“同时执行”,因为全局解释器锁? 是的,我知道这一点。我试图研究多处理,但偶然发现了更多问题。其中之一是,GUI 事件应该发生在主线程中。我也无法在单独的过程中读取相机。如果有使用多处理或不使用多线程的解决方案,那么我很高兴听到它。 我也不认为多处理是要走的路,通信我太复杂了(我怀疑它是否仍然足够高性能)。你需要找出你的脚本的哪一部分是慢的,然后看看你能做些什么。由于它在没有可视化的情况下以 30FPS 运行,我怀疑这可能是瓶颈。您可以尝试一下 Qt(通过它的一个 python 绑定),因为这既可以帮助您加快速度,又可以提供真正的多线程。我认为带有 GUI 的纯 python 解决方案对于 30FPS 来说不够快 也许将 OpenCV 与 Gstreamer 相结合是前进的方向,但它需要您重写几乎所有内容。 Kivy + gstreamer 怎么样?kivy.core.camera.camera_gi
可以使用与 !
链接的 gst 元素进行初始化...
【参考方案1】:
在这个答案中,我分享了关于 camera FPS VS display FPS 的一些注意事项以及一些演示代码示例:
FPS 计算基础知识; 如何将显示 FPS 从 29 fps 提高到 300+ fps; 如何有效地使用threading
和queue
以相机支持的最接近的最大fps 进行拍摄;
对于遇到您的问题的任何人,这里有几个需要首先回答的重要问题:
捕获的图像大小是多少? 您的网络摄像头支持多少 FPS? (相机 FPS) 您能以多快的速度从网络摄像头抓取帧并将其显示在窗口中? (显示 FPS)相机 FPS VS 显示器 FPS
相机 fps 是指相机硬件的能力。例如,ffmpeg 告诉我,在 640x480 时,我的相机可以返回最低 15 fps 和最高 30 fps 以及其他格式:
ffmpeg -list_devices true -f dshow -i dummy
ffmpeg -f dshow -list_options true -i video="HP HD Camera"
[dshow @ 00000220181cc600] vcodec=mjpeg min s=640x480 fps=15 max s=640x480 fps=30
[dshow @ 00000220181cc600] vcodec=mjpeg min s=320x180 fps=15 max s=320x180 fps=30
[dshow @ 00000220181cc600] vcodec=mjpeg min s=320x240 fps=15 max s=320x240 fps=30
[dshow @ 00000220181cc600] vcodec=mjpeg min s=424x240 fps=15 max s=424x240 fps=30
[dshow @ 00000220181cc600] vcodec=mjpeg min s=640x360 fps=15 max s=640x360 fps=30
[dshow @ 00000220181cc600] vcodec=mjpeg min s=848x480 fps=15 max s=848x480 fps=30
[dshow @ 00000220181cc600] vcodec=mjpeg min s=960x540 fps=15 max s=960x540 fps=30
[dshow @ 00000220181cc600] vcodec=mjpeg min s=1280x720 fps=15 max s=1280x720 fps=30
这里的重要认识是,尽管能够在内部捕获 30 fps,但不能保证应用程序能够在一秒钟内从相机中提取这 30 帧。这背后的原因将在以下部分中阐明。
显示帧率是指每秒可以在一个窗口中绘制多少张图像。这个数字完全不受相机的限制,通常远高于相机的 fps。正如您稍后将看到的,它可以创建和应用程序每秒从相机中提取 29 张图像并每秒绘制超过 300 次。这意味着在从相机中拉出下一帧之前,在一个窗口中多次绘制来自相机的相同图像。
我的网络摄像头可以捕捉多少 FPS?
以下应用程序仅演示如何打印相机使用的默认设置(大小、fps)以及如何从中检索帧、将其显示在窗口中并计算正在渲染的 FPS 数量:
import numpy as np
import cv2
import datetime
def main():
# create display window
cv2.namedWindow("webcam", cv2.WINDOW_NORMAL)
# initialize webcam capture object
cap = cv2.VideoCapture(0)
# retrieve properties of the capture object
cap_width = cap.get(cv2.CAP_PROP_FRAME_WIDTH)
cap_height = cap.get(cv2.CAP_PROP_FRAME_HEIGHT)
cap_fps = cap.get(cv2.CAP_PROP_FPS)
fps_sleep = int(1000 / cap_fps)
print('* Capture width:', cap_width)
print('* Capture height:', cap_height)
print('* Capture FPS:', cap_fps, 'ideal wait time between frames:', fps_sleep, 'ms')
# initialize time and frame count variables
last_time = datetime.datetime.now()
frames = 0
# main loop: retrieves and displays a frame from the camera
while (True):
# blocks until the entire frame is read
success, img = cap.read()
frames += 1
# compute fps: current_time - last_time
delta_time = datetime.datetime.now() - last_time
elapsed_time = delta_time.total_seconds()
cur_fps = np.around(frames / elapsed_time, 1)
# draw FPS text and display image
cv2.putText(img, 'FPS: ' + str(cur_fps), (10, 30), cv2.FONT_HERSHEY_SIMPLEX, 1, (0, 255, 0), 2, cv2.LINE_AA)
cv2.imshow("webcam", img)
# wait 1ms for ESC to be pressed
key = cv2.waitKey(1)
if (key == 27):
break
# release resources
cv2.destroyAllWindows()
cap.release()
if __name__ == "__main__":
main()
输出:
* Capture width: 640.0
* Capture height: 480.0
* Capture FPS: 30.0 wait time between frames: 33 ms
如前所述,默认情况下,我的相机能够以 30 fps 的速度拍摄 640x480 图像,尽管上面的循环非常简单,但我的 显示 FPS 较低:我只能检索帧并以 28 或 29 fps 的速度显示它们,并且在两者之间没有执行任何自定义图像处理。怎么回事?
现实情况是,即使循环看起来很简单,但在幕后发生的事情却只花费了足够的处理时间,使得循环的一次迭代很难在 33 毫秒内发生:
cap.read()
执行对相机驱动程序的 I/O 调用以提取新数据。此功能会阻止您的应用程序的执行,直到数据完全传输;
需要使用新像素设置一个 numpy 数组;
显示一个窗口并在其中绘制像素需要其他调用,即cv2.imshow()
,这通常是缓慢的操作;
还有 1 毫秒的延迟,这要归功于 cv2.waitKey(1)
,这是保持窗口打开所必需的;
所有这些操作,尽管它们很小,却让应用程序调用cap.read()
、获取新帧并以精确的 30 fps 显示它变得异常困难。
您可以尝试许多方法来加快应用程序的速度,以便能够显示比相机驱动程序允许的帧数更多的帧,this post 可以很好地覆盖它们。请记住这一点:您将无法从相机中捕获比驱动程序所支持的帧数更多的帧。但是,您将能够显示更多帧。
如何将显示FPS提高到300+? threading
示例。
用于增加每秒显示的图像数量的方法之一依赖于threading
包来创建一个单独的线程以连续从相机中提取帧。发生这种情况是因为应用程序的主循环不再阻塞在 cap.read()
上等待它返回一个新帧,从而增加了每秒可以显示(或绘制)的帧数。
注意:这种方法在一个窗口上多次渲染同一张图像,直到从相机中检索到下一张图像。请记住,它甚至可能会在内容仍在使用来自相机的新数据进行更新时绘制图像。
以下应用程序只是一个学术示例,我不建议将其用作生产代码,以增加在窗口中显示的每秒帧数:
import numpy as np
import cv2
import datetime
from threading import Thread
# global variables
stop_thread = False # controls thread execution
img = None # stores the image retrieved by the camera
def start_capture_thread(cap):
global img, stop_thread
# continuously read fames from the camera
while True:
_, img = cap.read()
if (stop_thread):
break
def main():
global img, stop_thread
# create display window
cv2.namedWindow("webcam", cv2.WINDOW_NORMAL)
# initialize webcam capture object
cap = cv2.VideoCapture(0)
# retrieve properties of the capture object
cap_width = cap.get(cv2.CAP_PROP_FRAME_WIDTH)
cap_height = cap.get(cv2.CAP_PROP_FRAME_HEIGHT)
cap_fps = cap.get(cv2.CAP_PROP_FPS)
fps_sleep = int(1000 / cap_fps)
print('* Capture width:', cap_width)
print('* Capture height:', cap_height)
print('* Capture FPS:', cap_fps, 'wait time between frames:', fps_sleep)
# start the capture thread: reads frames from the camera (non-stop) and stores the result in img
t = Thread(target=start_capture_thread, args=(cap,), daemon=True) # a deamon thread is killed when the application exits
t.start()
# initialize time and frame count variables
last_time = datetime.datetime.now()
frames = 0
cur_fps = 0
while (True):
# blocks until the entire frame is read
frames += 1
# measure runtime: current_time - last_time
delta_time = datetime.datetime.now() - last_time
elapsed_time = delta_time.total_seconds()
# compute fps but avoid division by zero
if (elapsed_time != 0):
cur_fps = np.around(frames / elapsed_time, 1)
# TODO: make a copy of the image and process it here if needed
# draw FPS text and display image
if (img is not None):
cv2.putText(img, 'FPS: ' + str(cur_fps), (10, 30), cv2.FONT_HERSHEY_SIMPLEX, 1, (0, 255, 0), 2, cv2.LINE_AA)
cv2.imshow("webcam", img)
# wait 1ms for ESC to be pressed
key = cv2.waitKey(1)
if (key == 27):
stop_thread = True
break
# release resources
cv2.destroyAllWindows()
cap.release()
if __name__ == "__main__":
main()
如何以相机支持的最接近的最大 fps 进行拍摄? threading
和 queue
示例。
使用queue
的问题在于,在性能方面,您获得的结果取决于应用程序每秒可以从相机中提取多少帧。如果相机支持 30 fps,那么这就是您的应用程序可能得到的结果,只要图像处理操作速度很快。否则,显示的帧数(每秒)会下降,队列的大小会慢慢增加,直到所有 RAM 内存用完。为避免该问题,请确保为queueSize
设置一个数字,以防止队列增长超出您的操作系统可以处理的范围。
下面的代码是一个简单的实现,它创建了一个专用的线程来从相机中抓取帧并将它们放入一个队列中,稍后由主循环使用应用:
import numpy as np
import cv2
import datetime
import queue
from threading import Thread
# global variables
stop_thread = False # controls thread execution
def start_capture_thread(cap, queue):
global stop_thread
# continuously read fames from the camera
while True:
_, img = cap.read()
queue.put(img)
if (stop_thread):
break
def main():
global stop_thread
# create display window
cv2.namedWindow("webcam", cv2.WINDOW_NORMAL)
# initialize webcam capture object
cap = cv2.VideoCapture(0)
#cap = cv2.VideoCapture(0 + cv2.CAP_DSHOW)
# retrieve properties of the capture object
cap_width = cap.get(cv2.CAP_PROP_FRAME_WIDTH)
cap_height = cap.get(cv2.CAP_PROP_FRAME_HEIGHT)
cap_fps = cap.get(cv2.CAP_PROP_FPS)
print('* Capture width:', cap_width)
print('* Capture height:', cap_height)
print('* Capture FPS:', cap_fps)
# create a queue
frames_queue = queue.Queue(maxsize=0)
# start the capture thread: reads frames from the camera (non-stop) and stores the result in img
t = Thread(target=start_capture_thread, args=(cap, frames_queue,), daemon=True) # a deamon thread is killed when the application exits
t.start()
# initialize time and frame count variables
last_time = datetime.datetime.now()
frames = 0
cur_fps = 0
while (True):
if (frames_queue.empty()):
continue
# blocks until the entire frame is read
frames += 1
# measure runtime: current_time - last_time
delta_time = datetime.datetime.now() - last_time
elapsed_time = delta_time.total_seconds()
# compute fps but avoid division by zero
if (elapsed_time != 0):
cur_fps = np.around(frames / elapsed_time, 1)
# retrieve an image from the queue
img = frames_queue.get()
# TODO: process the image here if needed
# draw FPS text and display image
if (img is not None):
cv2.putText(img, 'FPS: ' + str(cur_fps), (10, 30), cv2.FONT_HERSHEY_SIMPLEX, 1, (0, 255, 0), 2, cv2.LINE_AA)
cv2.imshow("webcam", img)
# wait 1ms for ESC to be pressed
key = cv2.waitKey(1)
if (key == 27):
stop_thread = True
break
# release resources
cv2.destroyAllWindows()
cap.release()
if __name__ == "__main__":
main()
之前我说过可能,这就是我的意思:即使我使用专用的线程从相机和队列中提取帧> 为了存储它们,显示的 fps 仍被限制为 29.3,而应该是 30 fps。在这种情况下,我假设VideoCapture
使用的相机驱动程序或后端实现可以归咎于这个问题。在 Windows 上,默认使用的后端是 MSMF。
可以通过在构造函数上传递正确的参数来强制VideoCapture
使用不同的后端:
cap = cv2.VideoCapture(0 + cv2.CAP_DSHOW)
DShow 的体验很糟糕:从相机返回的CAP_PROP_FPS
为 0,显示的 FPS 卡在 14 左右。这只是一个示例,说明后端捕获驱动程序如何对相机捕获产生负面影响。
但这是您可以探索的。也许在您的操作系统上使用不同的后端可以提供更好的结果。这是一个很好的high-level overview of the Video I/O module from OpenCV,列出了支持的后端:
更新
在此答案的其中一个问题中,OP 在 Mac OS 上将 OpenCV 4.1 升级到 4.3,并观察到 FPS 渲染的显着改进。看起来这是与cv2.imshow()
相关的性能问题。
【讨论】:
通过将cv2.waitKey()
中的睡眠时间更改为 1 毫秒,我能够提高我在回答 29.3 FPS 中的最后一个代码的性能。当我使用 5 毫秒时,FPS 的上限为 27。有趣的是,如此小的变化如何影响应用程序的性能。顺便说一句,该代码使用队列只处理每个帧一次。我还改进了答案的格式。只需确保使用我的 FPS 计算算法进行测量即可。
现实情况是,我们需要了解相机可以使用其固件在内部捕获多少 FPS 与在操作系统上运行的应用程序可以从该相机获得多少 FPS 之间存在差异:29.3 是对于大多数应用程序来说足够接近 30。
在 OpenCV 4 之前的 Mac OS X 上,cv2.imshow()
存在问题,导致其运行缓慢。你能确认你使用的是 OpenCV 4.x 吗?
此时您可以升级到 OpenCV 4.3 或尝试自己重建 OpenCV 以尝试使用不同的 GUI 后端。
好的,在 opencv 4.3 上它运行得更快。单循环 27 FPS,队列 28.8 FPS。不过,最高速度似乎被限制在 60 FPS。我的 requirements.txt 中有 opencv-python
以上是关于Python3 以网络摄像头 fps 处理和显示网络摄像头流的主要内容,如果未能解决你的问题,请参考以下文章