Pytorch – 使用Pyav解码视频文件并将视频帧转换为Pytorch tensor作为网络模型输入数据
1 视频文件作为网络模型的输入数据
越来越多的神经网络模型开始以视频作为训练数据,比如基于视频数据的行为识别等等,这就需要我们将视频转换为可适用的张量,本文将以pytorch为例,展示一下视频数据转换为pytorch tensor的过程。
2 使用Pyav解码视频文件并将视频帧转换为Pytorch tensor
2.1 安装ffmepg以及pyav
不赘述。
2.2 视频转换为tensor
import torch
import numpy as np
import os
import av
def get_tensor_from_video(video_path,is_multi_thread_decode = True):
"""
:param video_path: 视频文件地址
:param is_multi_thread_decode: 是否多线程解码文件
:return: pytorch tensor
"""
if not os.access(video_path, os.F_OK):
print('测试文件不存在')
return
container = av.open(video_path)
if is_multi_thread_decode:
container.streams.video[0].thread_type = "AUTO"
container.seek(0, any_frame=False, backward=True, stream=container.streams.video[0])
frames = []
for frame in container.decode(video=0):
frames.append(frame)
container.close()
result_frams = None
# 从视频帧转换为ndarray
result_frames = [frame.to_rgb().to_ndarray() for frame in frames]
# 转换成tensor
result_frames = torch.as_tensor(np.stack(result_frames))
# 注意:此时result_frames组成的维度为[视频帧数量,宽,高,通道数]
return result_frames
if __name__ == '__main__':
tensor = get_tensor_from_video(r'example.avi')
print(tensor.shape)
详细的代码如上,请注意上述函数get_tensor_from_video返回的tensor的维度为[视频帧数量,宽,高,通道数],而有的神经网络模型要求输入[通道数,视频帧数量,宽,高],我们可以使用以下函数进行转换。
2.3 tensor维度交换
# T H W C -> C T H W
result_frames = result_frames.permute(3, 0, 1, 2)
本文作者:StubbornHuang
版权声明:本文为站长原创文章,如果转载请注明原文链接!
原文标题:Pytorch – 使用Pyav解码视频文件并将视频帧转换为Pytorch tensor作为网络模型输入数据
原文链接:https://www.stubbornhuang.com/1227/
发布于:2021年03月25日 15:26:42
修改于:2023年06月26日 21:48:02
声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。
评论
50