python 调用ffmpeg使用usb摄像头录制视频,输出h264格式,自动获取摄像头的最佳帧率和最大画面尺寸

简介: 使用 Python 调用 FFmpeg 进行 USB 摄像头视频录制,需先确保安装 FFmpeg 和 Python 的 `subprocess` 模块。代码示例展示了如何自动获取摄像头的最佳帧率和最大分辨率,然后录制视频。首先通过 FFmpeg 列出摄像头格式获取信息,解析出帧率和分辨率,选择最优值。之后调用 FFmpeg 命令录制视频,设置帧率、分辨率等参数。注意 `/dev/video0` 是 Linux 的摄像头设备路径,Windows 系统需相应调整。代码中未直接实现自动获取最佳参数,通常需要借助其他库如 OpenCV。

原始需求:

python 调用ffmpeg使用usb摄像头录制视频,输出位h264格式,自动获取摄像头的最佳帧率和最大画面尺寸



为了使用 Python 调用 FFmpeg 来通过 USB 摄像头录制视频,并使用 H.264 编码,首先需要确保系统安装了 FFmpeg 和 Python 的 subprocess 模块。

安装 FFmpeg

可以从 FFmpeg 官网 下载并安装 FFmpeg。

代码实现

下面是一个完整的代码示例,演示如何使用 Python 和 FFmpeg 从 USB 摄像头录制视频,并自动获取摄像头的最佳帧率和最大画面尺寸:



import subprocess
import re

def get_camera_info():
    # 使用 ffmpeg 获取摄像头信息
    cmd = ["ffmpeg", "-f", "v4l2", "-list_formats", "all", "-i", "/dev/video0"]
    result = subprocess.run(cmd, stderr=subprocess.PIPE, text=True)

    # 解析输出以获取最佳帧率和最大画面尺寸
    output = result.stderr
    frame_rates = []
    resolutions = []

    for line in output.split("\n"):
        # 获取帧率信息
        frame_rate_match = re.search(r"([0-9]+(\.[0-9]+)?) fps", line)
        if frame_rate_match:
            frame_rates.append(float(frame_rate_match.group(1)))

        # 获取分辨率信息
        resolution_match = re.search(r"([0-9]+)x([0-9]+)", line)
        if resolution_match:
            width = int(resolution_match.group(1))
            height = int(resolution_match.group(2))
            resolutions.append((width, height))

    best_frame_rate = max(frame_rates) if frame_rates else 30  # 如果未找到,默认为30fps
    max_resolution = max(resolutions, key=lambda x: x[0]*x[1]) if resolutions else (640, 480)  # 默认640x480

    return best_frame_rate, max_resolution

def record_video(output_file, duration):
    best_frame_rate, max_resolution = get_camera_info()
    width, height = max_resolution

    # 使用 ffmpeg 录制视频
    cmd = [
        "ffmpeg",
        "-f", "v4l2",
        "-framerate", str(best_frame_rate),
        "-video_size", f"{width}x{height}",
        "-i", "/dev/video0",
        "-t", str(duration),
        "-c:v", "libx264",
        "-preset", "fast",
        "-pix_fmt", "yuv420p",
        output_file
    ]

    subprocess.run(cmd)

# 调用示例
output_video_path = "output_video.mp4"
record_duration = 10  # 录制10秒
record_video(output_video_path, record_duration)



解释

  1. 获取摄像头信息 get_camera_info:
  • 使用 FFmpeg 命令列出摄像头支持的所有格式。
  • 解析 FFmpeg 的输出以获取帧率和分辨率信息。
  • 选择最佳帧率和最大分辨率。
  1. 录制视频 record_video:
  • 使用上面函数获取最佳帧率和最大分辨率。
  • 调用 FFmpeg 命令通过 USB 摄像头录制视频,并使用 H.264 编码。
  1. FFmpeg 命令解释:
  • -f v4l2:指定输入格式为 V4L2(Video for Linux 2)。
  • -framerate:设置帧率。
  • -video_size:设置分辨率。
  • -i /dev/video0:指定输入设备为 USB 摄像头。
  • -t:设置录制时长。
  • -c:v libx264:指定视频编码器为 H.264。
  • -preset fast:设置编码速度,fast 是编码速度和质量之间的平衡。
  • -pix_fmt yuv420p:设置像素格式为 YUV 4:2:0。

请注意:

  • /dev/video0 是 Linux 下的摄像头设备路径。对于 Windows 系统可以使用如 -i video="YOUR_CAMERA_NAME".
  • 在运行代码之前,请确保你的摄像头可以被 FFmpeg 识别,并且你的系统 PATH 中包含了 FFmpeg 程序。

通过上述代码,你可以实现从 USB 摄像头录制视频,并根据摄像头的最佳帧率和最大画面尺寸来设置录制参数。




上述代码示例,是GPT-4o给出的。 跟我写的是基本一样的。 下面给一个 通义某问的结果。 一下就被比下去了




在Python中调用FFmpeg来使用USB摄像头录制视频,并且自动获取最佳帧率和最大画面尺寸,可以通过一系列步骤来实现。首先,你需要确认你的系统已经安装了FFmpeg,并且Python环境配置好了subprocess模块,用于执行外部命令。由于直接获取摄像头的最佳帧率和分辨率比较复杂,通常需要依赖特定的库或者尝试不同的参数来测试,这里提供一个基于通用方法的示例代码,它尝试使用一个常见的分辨率和帧率,并给出如何根据摄像头特性调整这些参数的指导 ————看到了吗? 他不知道怎么写

安装必要的库

确保你的环境中安装了ffmpeg。对于Python,主要使用标准库subprocess,因此无需额外安装。

示例代码

下面的Python脚本尝试录制视频,使用了一些常见的默认参数(如分辨率1280x720,帧率为30fps),你可以根据实际摄像头的能力调整这些值。获取摄像头确切的最佳参数通常需要查阅摄像头的手册或者使用一些工具软件先行探测。



import subprocess

def record_video(output_filename="output.mp4", duration=10):
    # FFmpeg命令模板,根据实际情况调整
    ffmpeg_cmd = [
        "ffmpeg",
        "-f", "v4l2",       # 使用v4l2设备(通常用于USB摄像头)
        "-i", "/dev/video0", # 设备路径,根据你的系统可能不同,如/dev/video1等
        "-c:v", "libx264",   # 使用H264编码器
        "-vf", "scale=-2:720", # 自动调整宽度,保持高度为720,-2表示宽度自动计算以保持原始宽高比
        "-r", "30",         # 帧率,这里设为30fps
        "-t", str(duration), # 录制时长,单位秒
        output_filename     # 输出文件名
    ]
    
    try:
        # 执行FFmpeg命令
        subprocess.run(ffmpeg_cmd, check=True)
        print(f"Video recording completed and saved as {output_filename}")
    except subprocess.CalledProcessError as e:
        print(f"Error occurred while recording video: {e}")

# 调用函数录制视频
record_video()


注意事项

  1. 设备路径:上述代码中的/dev/video0是Linux系统中常见的USB摄像头设备路径。Windows或其他操作系统可能不同,需要根据实际情况调整。
  2. 自动获取最佳帧率和分辨率:直接通过代码自动获取摄像头的最佳帧率和分辨率较为复杂,通常需要使用像OpenCV这样的库先进行探测。你可以先使用OpenCV的cv2.VideoCapture来打开摄像头,然后通过get(cv2.CAP_PROP_FPS)和get(cv2.CAP_PROP_FRAME_WIDTH)、get(cv2.CAP_PROP_FRAME_HEIGHT)来获取帧率和分辨率信息。
  3. 调整参数:根据摄像头的实际能力,你可能需要调整分辨率(比如-vf scale=-2:720中的720)和帧率(-r后的数字)以达到最优效果。
  4. 权限问题:在Linux系统上运行时,可能需要相应的权限来访问摄像头设备。

通过上述方法,你可以开始录制视频,但自动化获取最佳参数可能需要结合其他库(如OpenCV)进行摄像头特性探测,从而达到更精准的配置






相关文章
|
1月前
|
Python
Python使用ffmpeg下载m3u8拼接为视频
Python使用ffmpeg下载m3u8拼接为视频
60 1
|
1月前
|
Web App开发 安全 Linux
FFmpeg开发笔记(二十六)Linux环境安装ZLMediaKit实现视频推流
《FFmpeg开发实战》书中介绍轻量级流媒体服务器MediaMTX,但其功能有限,不适合生产环境。推荐使用国产开源的ZLMediaKit,它支持多种流媒体协议和音视频编码标准。以下是华为欧拉系统下编译安装ZLMediaKit和FFmpeg的步骤,包括更新依赖、下载源码、配置、编译、安装以及启动MediaServer服务。此外,还提供了通过FFmpeg进行RTSP和RTMP推流,并使用VLC播放器拉流的示例。
60 3
FFmpeg开发笔记(二十六)Linux环境安装ZLMediaKit实现视频推流
|
1月前
|
Linux 开发工具
Linux下视频截取命令 使用【ffmpeg】使用
Linux下视频截取命令 使用【ffmpeg】使用
20 1
|
18天前
|
编解码
FFmpeg开发笔记(三十三)分析ZLMediaKit对H.264流的插帧操作
《FFmpeg开发实战》书中3.4.3节讲解如何将H.264流封装成MP4。H.264流通常以SPS→PPS→IDR帧开始,这一说法通过雷霄骅的H264分析器得到验证。分析器能解析H.264文件但不支持MP4。ZLMediaKit服务器在遇到I帧时会自动插入SPS和PPS配置帧,确保流符合标准格式。若缺少这些帧,客户端拉流时会报错。FFmpeg开发实战:从零基础到短视频上线》书中提供了更多FFmpeg开发细节。
32 0
FFmpeg开发笔记(三十三)分析ZLMediaKit对H.264流的插帧操作
|
5天前
|
Web App开发 缓存 Linux
FFmpeg开发笔记(三十六)Linux环境安装SRS实现视频直播推流
《FFmpeg开发实战》书中第10章提及轻量级流媒体服务器MediaMTX,适合测试RTSP/RTMP协议,但不适合生产环境。推荐使用SRS或ZLMediaKit,其中SRS是国产开源实时视频服务器,支持多种流媒体协议。本文简述在华为欧拉系统上编译安装SRS和FFmpeg的步骤,包括安装依赖、下载源码、配置、编译以及启动SRS服务。此外,还展示了如何通过FFmpeg进行RTMP推流,并使用VLC播放器测试拉流。更多FFmpeg开发内容可参考相关书籍。
19 2
FFmpeg开发笔记(三十六)Linux环境安装SRS实现视频直播推流
|
11天前
|
Linux Apache C++
FFmpeg开发笔记(三十五)Windows环境给FFmpeg集成libsrt
该文介绍了如何在Windows环境下为FFmpeg集成SRT协议支持库libsrt。首先,需要安装Perl和Nasm,然后编译OpenSSL。接着,下载libsrt源码并使用CMake配置,生成VS工程并编译生成srt.dll和srt.lib。最后,将编译出的库文件和头文件按照特定目录结构放置,并更新环境变量,重新配置启用libsrt的FFmpeg并进行编译安装。该过程有助于优化直播推流的性能,减少卡顿问题。
44 2
FFmpeg开发笔记(三十五)Windows环境给FFmpeg集成libsrt
|
12天前
|
Linux
FFmpeg开发笔记(三十四)Linux环境给FFmpeg集成libsrt和librist
《FFmpeg开发实战》书中介绍了直播的RTSP和RTMP协议,以及新协议SRT和RIST。SRT是安全可靠传输协议,RIST是可靠的互联网流传输协议,两者于2017年发布。腾讯视频云采用SRT改善推流卡顿。以下是Linux环境下为FFmpeg集成libsrt和librist的步骤:下载安装源码,配置、编译和安装。要启用这些库,需重新配置FFmpeg,添加相关选项,然后编译和安装。成功后,通过`ffmpeg -version`检查版本信息以确认启用SRT和RIST支持。详细过程可参考书中相应章节。
22 1
FFmpeg开发笔记(三十四)Linux环境给FFmpeg集成libsrt和librist
|
25天前
|
编解码 Java Android开发
FFmpeg开发笔记(三十一)使用RTMP Streamer开启APP直播推流
RTMP Streamer是一款开源的安卓直播推流框架,支持RTMP、RTSP和SRT协议,适用于各种直播场景。它支持H264、H265、AV1视频编码和AAC、G711、OPUS音频编码。本文档介绍了如何使用Java版的RTMP Streamer,建议使用小海豚版本的Android Studio (Dolphin)。加载项目时,可添加国内仓库加速依赖下载。RTMP Streamer包含五个模块:app、encoder、rtmp、rtplibrary和rtsp。完成加载后,可以在手机上安装并运行APP,提供多种直播方式。开发者可以从《FFmpeg开发实战:从零基础到短视频上线》获取更多信息。
54 7
FFmpeg开发笔记(三十一)使用RTMP Streamer开启APP直播推流
|
26天前
|
存储 编解码
FFmpeg开发笔记(三十)解析H.264码流中的SPS帧和PPS帧
《FFmpeg开发实战》书中介绍了音视频编码历史,重点讲述H.264的成功在于其分为视频编码层和网络抽象层。H.264帧类型包括SPS(序列参数集,含视频规格参数),PPS(图像参数集,含编码参数)和IDR帧(立即解码刷新,关键帧)。SPS用于计算视频宽高和帧率,PPS存储编码设置,IDR帧则标志新的解码序列。书中还配以图片展示各帧结构详情,完整内容可参考相关书籍。
52 7
FFmpeg开发笔记(三十)解析H.264码流中的SPS帧和PPS帧
|
4天前
|
编解码
FFmpeg开发笔记(三十七)分析SRS对HLS协议里TS包的插帧操作
《FFmpeg开发实战》书中讲解了音视频封装格式,重点介绍了TS,因其固定长度和独立解码特性,常用于HLS协议。HLS通过m3u8文件指示客户端播放TS分片。SRS服务器在转换MP4至TS时,会在每个TS包头添加SPS和PPS帧,保证解码完整性。这一过程在SrsIngestHlsOutput::on_ts_video函数中体现,调用write_h264_sps_pps和write_h264_ipb_frame完成。详细实现涉及SrsRawH264Stream::mux_sequence_header函数,遵循ISO标准写入SPS和PPS NAL单元。
16 0
FFmpeg开发笔记(三十七)分析SRS对HLS协议里TS包的插帧操作

热门文章

最新文章