光流方法的通常目的是在两幅图像(或视频帧)中找到每个像素(如果密集)或每个特征点(如果稀疏)的速度分量。这个想法是,帧 N-1 中的像素移动到帧 N 中的新位置,这些像素的位置之间的差异就像一个速度向量。也就是说,在前一帧中位置为 (x, y) 的像素会在下一帧中出现在位置 (x+v_x, y+v_y)。
该函数使用Farneback算法为每个prev像素找到光流。
prev(y,x) ~ next(y + flow(y,x)[1], x + flow(y,x)[0])
稠密光流算法期望像素点不要离其初始位置太远,因此通常用于视频中——每帧之间没有太大的变化。如果每帧之间有巨大的差异,你可能无法得到正确的估计。当然,金字塔分辨率模型的目的是帮助处理更大的跳跃,但您需要注意选择合适的分辨率比例。这里有一个完整的例子。我将从我今年早些时候在温哥华拍摄的这个短时间序列开始。我将创建一个函数,为每个像素指定方向并用颜色表示,将光流的大小用该颜色的亮度表示。这意味着亮度更高的像素将对应于更高的光流,并且颜色对应于方向。这也是OpenCV光流教程上最后一个示例所做的。import cv2
import numpy as np
def flow_to_color(flow, hsv):
mag, ang = cv2.cartToPolar(flow[..., 0], flow[..., 1])
hsv[..., 0] = ang*180/np.pi/2
hsv[..., 2] = cv2.normalize(mag, None, 0, 255, cv2.NORM_MINMAX)
return cv2.cvtColor(hsv, cv2.COLOR_HSV2BGR)
cap = cv2.VideoCapture('vancouver.mp4')
fps = cap.get(cv2.CAP_PROP_FPS)
w = int(cap.get(cv2.CAP_PROP_FRAME_WIDTH))
h = int(cap.get(cv2.CAP_PROP_FRAME_HEIGHT))
fourcc = cv2.VideoWriter_fourcc(*'mp4v')
out = cv2.VideoWriter('optflow.mp4', fourcc, fps, (w, h))
optflow_params = [0.5, 3, 15, 3, 5, 1.2, 0]
frame_exists, prev_frame = cap.read()
prev = cv2.cvtColor(prev_frame, cv2.COLOR_BGR2GRAY)
hsv = np.zeros_like(prev_frame)
hsv[..., 1] = 255
while(cap.isOpened()):
frame_exists, curr_frame = cap.read()
if frame_exists:
curr = cv2.cvtColor(curr_frame, cv2.COLOR_BGR2GRAY)
flow = cv2.calcOpticalFlowFarneback(prev, curr, None, *optflow_params)
rgb = flow_to_color(flow, hsv)
out.write(rgb)
prev = curr
else:
break
cap.release()
out.release()
print('done')
并且 这是结果视频。
然而,你想要做的是在帧之间插值。这有点令人困惑,因为最好的方法是使用cv2.remap()
,但是这个函数的工作方向与我们想要的相反。 光流告诉我们像素去哪里,但是remap()
想知道像素来自哪里。所以实际上,我们需要交换remap
的光流计算顺序。在这里查看我关于remap()
函数的详细解释。
所以在这里,我创建了一个名为interpolate_frames()
的函数,它可以从光流中插值出你想要的任意数量的帧。 这完全按照我们在评论中讨论的方式工作,但是请注意在calcOpticalFlowFarneback()
内部翻转了curr
和prev
的顺序。
由于帧间运动非常高,上面的延时视频不是很合适。 相反,我将使用另一个视频的短片段,在与输入相同的位置拍摄。
import cv2
import numpy as np
def interpolate_frames(frame, coords, flow, n_frames):
frames = [frame]
for f in range(1, n_frames):
pixel_map = coords + (f/n_frames) * flow
inter_frame = cv2.remap(frame, pixel_map, None, cv2.INTER_LINEAR)
frames.append(inter_frame)
return frames
cap = cv2.VideoCapture('vancouver.mp4')
fps = cap.get(cv2.CAP_PROP_FPS)
w = int(cap.get(cv2.CAP_PROP_FRAME_WIDTH))
h = int(cap.get(cv2.CAP_PROP_FRAME_HEIGHT))
fourcc = cv2.VideoWriter_fourcc(*'mp4v')
out = cv2.VideoWriter('optflow-inter1a.mp4', fourcc, fps, (w, h))
optflow_params = [0.5, 3, 15, 3, 5, 1.2, 0]
frame_exists, prev_frame = cap.read()
prev = cv2.cvtColor(prev_frame, cv2.COLOR_BGR2GRAY)
y_coords, x_coords = np.mgrid[0:h, 0:w]
coords = np.float32(np.dstack([x_coords, y_coords]))
while(cap.isOpened()):
frame_exists, curr_frame = cap.read()
if frame_exists:
curr = cv2.cvtColor(curr_frame, cv2.COLOR_BGR2GRAY)
flow = cv2.calcOpticalFlowFarneback(curr, prev, None, *optflow_params)
inter_frames = interpolate_frames(prev_frame, coords, flow, 4)
for frame in inter_frames:
out.write(frame)
prev_frame = curr_frame
prev = curr
else:
break
cap.release()
out.release()
这里是输出的结果。每个原始帧都有4个帧,所以它放慢了4倍。当然,这样做会产生黑色边缘像素,因此您可能希望对您的帧进行某种边框插值(可以使用cv2.copyMakeBorder()
),以重复类似的边缘像素,或者对最终输出进行裁剪以消除这些像素。请注意,大多数视频稳定算法确实为类似的原因而裁剪图像。这也是为什么当你将手机相机切换到视频模式时,你会注意到更大的焦距(看起来有点变焦)的原因之一。
prvs
到next
。像素在prvs[y, x]
处移动flow[y, x]
个像素以到达next[y', x']
。换句话说,next[flow[y, x]] = prvs[y, x]
。(这只是一个例子,在此需要特别注意索引顺序)。 - alkasmprvs[x,y] + flow[x,y]
还是prvs[x,y] - flow[x,y]
?@AlexanderReynolds - user2229358[y,x]
而不是[x,y]
?流向量元素改变了吗?首先是y分量,其次是x分量吗?@AlexanderReynolds - user2229358(row, col)
即(y, x)
进行索引。prvs[y, x]
是一个像素,flow[y, x]
是一个向量,你不应该将它们相加。从技术上讲,应该是next[ [y, x] + flow[y, x][::-1] ] = prvs[y, x]
,这里的[::-1]
是因为我认为flow[y, x]
会给你(x, y)顺序的坐标,所以[::-1]
将它们反转为[y, x]
进行索引。当我回家后,我可以尝试一下并给你更好的答复。 - alkasm