【音视频 ffmpeg 学习】 RTMP推流 mp4文件

news2024/11/23 13:42:15

1.RTMP(实时消息传输协议)是Adobe 公司开发的一个基于TCP的应用层协议。
2.RTMP协议中基本的数据单元称为消息(Message)。
3.当RTMP协议在互联网中传输数据的时候,消息会被拆分成更小的单元,称为消息块(Chunk)。
(1). linux 环境准备
安装nginx 和 rtmp模块
下载nginx安装包
下载地址:http://nginx.org/download
下载 rtmp模块 到nginx 模块下
wget https://github.com/arut/nginx-rtmp-module/archive/master.zip

(2)编译
到这个目录下
执行命令

./configure --prefix=/usr/local/nginx --with-http_realip_module --with-http_addition_module --with-http_ssl_module --with-http_gzip_static_module --with-http_secure_link_module --with-http_stub_status_module --with-stream --with-pcre=/home/king/share/nginx/pcre-8.41 --with-zlib=/home/king/share/nginx/zlib-1.2.11 --with-openssl=/home/king/share/nginx/openssl-1.1.0g --add-module=/home/king/share/nginx/ngx_http_request_count_module

make && sudo make install

修改 配置文件
在这里插入图片描述

vim /usr/local/nginx/conf/nginx.conf

增加以下 

rtmp {          
        server {            
            listen 1935;         # 端口  
            chunk_size 4000;
            application live { # 请求路径     
                live on;        
            }
        }
}
配置完成启动服务  
sudo ./sbin/nginx -c conf/nginx.conf

netstat -anop |grep 1935

在这里插入图片描述
push.h

#ifndef PUSHSTREAMTHREAD_H
#define PUSHSTREAMTHREAD_H

#include <QObject>
#include <QThread>
#include <QDebug>

extern "C" {
    #include "libavdevice/avdevice.h"    // 调用输入设备需要的头文件
    #include "libavcodec/avcodec.h"
    #include "libavformat/avformat.h"
    #include "libavutil/avutil.h"
    #include "libswscale/swscale.h"
    #include "libavutil/imgutils.h"
    #include "libavutil/pixfmt.h"
    #include "libavutil/error.h"
    #include "libswresample/swresample.h"
    #include "libavfilter/avfilter.h"
    #include "libavutil/time.h"
}

class PushStreamThread : public QThread
{
    Q_OBJECT
public:
    PushStreamThread(QThread *parent =nullptr);
    ~PushStreamThread();
    void run() override;
    void set_stop_flag(bool stop);

private:
    bool stop_flag = false;

    const AVOutputFormat *ofmt;
    AVFormatContext *ifmt_ctx = nullptr;  //输入上下文
    AVFormatContext *ofmt_ctx = nullptr;  //输出上下文

    const char *in_filename;
    const char *outUrl;
    int ret;
    uint32_t i = 0;
    int videoIndex = -1;
    int frame_index = 0;
    int64_t start_time = 0;

};

#endif // PUSHSTREAMTHREAD_H

push.cpp

#include "pushstreamthread.h"

PushStreamThread::PushStreamThread(QThread *parent)
    :QThread(parent)
{
    avdevice_register_all();
    avformat_network_init();
}

PushStreamThread::~PushStreamThread()
{
    if(ifmt_ctx){
        avformat_close_input(&ifmt_ctx);
    }
    if (ifmt_ctx && ofmt_ctx->pb && !(ofmt_ctx->flags & AVFMT_NOFILE))
        avio_close(ofmt_ctx->pb);
    if (ifmt_ctx) {
      avformat_free_context(ofmt_ctx);
    }
}


void PushStreamThread::run()
{
    qDebug() << "run:" << QThread::currentThreadId();
    //in_filename  = "cuc_ieschool.mov";
    //in_filename  = "cuc_ieschool.mkv";
    //in_filename  = "cuc_ieschool.ts";
    //in_filename  = "cuc_ieschool.mp4";
    //in_filename  = "cuc_ieschool.h264";
    in_filename  = "hlzmj.mp4";//输入URL(Input file URL)  video=ov9734_azurewave_camera  test.mp4
    //in_filename  = "shanghai03_p.h264";
    outUrl = "rtmp://192.168.222.92:1935/live";//输出 URL(Output URL)[RTMP]  rtmp://localhost/publishlive/livestream
    //out_filename = "rtp://233.233.233.233:6666";//输出 URL(Output URL)[UDP]
    //const AVInputFormat *ifmt = av_find_input_format("dshow");
    //AVDictionary *options = nullptr;

//    av_dict_set(&options, "video_size",  "640*480", 0);
//    av_dict_set(&options, "framerate",  "30", 0);
    //输入(Input)
    ret = avformat_open_input(&ifmt_ctx, in_filename, 0, 0);
    if (ret < 0) {
        qDebug() <<  "ifmt_ctx avformat_open_input failed:" << ret;
        return;
    }
    ret = avformat_find_stream_info(ifmt_ctx, 0);
    if (ret < 0) {
        qDebug()<< "ifmt_ctx avformat_find_stream_info failed:"<< ret;
        return;
    }


    ret = avformat_alloc_output_context2(&ofmt_ctx, NULL, "flv", outUrl);
    if (ret < 0)
    {
        qDebug() << "ofmt_ctx avformat_alloc_output_context2 failed";
        return;
    }

    ofmt = ofmt_ctx->oformat;


    for (i = 0; i < ifmt_ctx->nb_streams; i++)
   {
       //这里开始要创建一个新的AVStream
       AVStream *stream = ifmt_ctx->streams[i];

       //判断是否是videoIndex。这里先记录下视频流。后面会对这个流进行操作
       if (stream->codecpar->codec_type == AVMEDIA_TYPE_VIDEO)
       {
           videoIndex = i;
       }

       //创建输出流
       const AVCodec *c = avcodec_find_decoder(stream->codecpar->codec_id);
       AVStream *os = avformat_new_stream(ofmt_ctx, c);

       //应该将编解码器的参数从input中复制过来
       // 这里要注意的是,因为 os->codec这样的取法,已经过时了。所以使用codecpar
       ret = avcodec_parameters_copy(os->codecpar, stream->codecpar);
       if (ret < 0)
       {
           qDebug() << "ofmt_ctx os->codecpar avcodec_parameters_copy failed";
           return;
       }
       qDebug() << "avcodec_parameters_copy success!" ;
       qDebug() << "avcodec_parameters_copy success! in stream codec tag" << stream->codecpar->codec_tag;
       qDebug() << "avcodec_parameters_copy success! out stream  codec tag" << os->codecpar->codec_tag ;

       //复制成功之后。还需要设置 codec_tag(编码器的信息?)
       os->codecpar->codec_tag = 0;
   }

   //检查一遍我们的输出
   av_dump_format(ofmt_ctx, 0, outUrl, 1);

   //开始使用io进行推流
   //通过AVIO_FLAG_WRITE这个标记位,打开输出的AVFormatContext->AVIOContext
   ret = avio_open(&ofmt_ctx->pb, outUrl, AVIO_FLAG_WRITE);
   if (ret < 0)
   {
        qDebug() << "ofmt_ctx->pb avio_open failed" << ret;
        return;
   }
   qDebug() << "avio_open success!";
   //先写头
   ret = avformat_write_header(ofmt_ctx, 0);
   if (ret < 0)
   {
       qDebug() << "ofmt_ctx avformat_write_header failed" << ret;
       return;
   }
   //取得到每一帧的数据,写入
   AVPacket pkt;

   //为了让我们的代码发送流的速度,相当于整个视频播放的数据。需要记录程序开始的时间
   //后面再根据,每一帧的时间。做适当的延迟,防止我们的代码发送的太快了
   long long start_time = av_gettime();
   //记录视频帧的index,用来计算pts
   long long frame_index = 0;

   while (!stop_flag)
   {
       //输入输出视频流
       AVStream *in_stream, *out_stream;

       //从输入流中读取数据 frame到AVPacket当中
       ret = av_read_frame(ifmt_ctx, &pkt);
       if (ret < 0)
       {
           qDebug() << "ifmt_ctx av_read_frame break";
           break;
       }

       //没有显示时间的时候,才会进入计算和校验
       //没有封装格式的裸流(例如H.264裸流)是不包含PTS、DTS这些参数的。在发送这种数据的时候,需要自己计算并写入AVPacket的PTS,DTS,duration等参数。如果没有pts,则进行计算
       if (pkt.pts == AV_NOPTS_VALUE)
       {
           //AVRational time_base:时基。通过该值可以把PTS,DTS转化为真正的时间。
            //先得到流中的time_base
           AVRational time_base = ifmt_ctx->streams[videoIndex]->time_base;
           //开始校对pts和 dts.通过time_base和dts转成真正的时间
           //得到的是每一帧的时间
           /*
           r_frame_rate 基流帧速率 。取得是时间戳内最小的帧的速率 。每一帧的时间就是等于 time_base/r_frame_rate
           av_q2d 转化为double类型
           */
           int64_t calc_duration = (double)AV_TIME_BASE / av_q2d(ifmt_ctx->streams[videoIndex]->r_frame_rate);
           //配置参数  这些时间,都是通过 av_q2d(time_base) * AV_TIME_BASE 来转成实际的参数
           pkt.pts = (double)(frame_index * calc_duration) / (double)av_q2d(time_base) * AV_TIME_BASE;
           //一个GOP中,如果存在B帧的话,只有I帧的dts就不等于pts
           pkt.dts = pkt.pts;
           pkt.duration = (double)calc_duration / (double)av_q2d(time_base) * AV_TIME_BASE;
       }

       //开始处理延迟.只有等于视频的帧,才会处理
       if (pkt.stream_index == videoIndex)
       {
           //需要计算当前处理的时间和开始处理时间之间的间隔??

           //0.先取时间基数
           AVRational time_base = ifmt_ctx->streams[videoIndex]->time_base;

           //AV_TIME_BASE_Q 用小数表示的时间基数。等于时间基数的倒数
           AVRational time_base_r = { 1, AV_TIME_BASE };

           //计算视频播放的时间. 公式等于 pkt.dts * time_base / time_base_r`
           //.其实就是 stream中的time_base和定义的time_base直接的比例
           int64_t pts_time = av_rescale_q(pkt.dts, time_base, time_base_r);
           //计算实际视频的播放时间。 视频实际播放的时间=代码处理的时间??
           int64_t now_time = av_gettime() - start_time;

           qDebug() << time_base.num << " " << time_base.den << "  " << pkt.dts << "  " << pkt.pts << "   " << pts_time;
           //如果显示的pts time 比当前的时间迟,就需要手动让程序睡一会,再发送出去,保持当前的发送时间和pts相同
           if (pts_time > now_time)
           {
               //睡眠一段时间(目的是让当前视频记录的播放时间与实际时间同步)
               av_usleep((unsigned int)(pts_time - now_time));
           }
       }

               //重新计算一次pts和dts.主要是通过 in_s的time_base 和 out_s的time_base进行计算和校对
       //先取得stream
       in_stream = ifmt_ctx->streams[pkt.stream_index];
       out_stream = ofmt_ctx->streams[pkt.stream_index];

       //重新开始指定时间戳
       //计算延时后,重新指定时间戳。 这次是根据 in_stream 和 output_stream之间的比例
       //计算dts时,不再直接用pts,因为如有有B帧,就会不同
       //pts,dts,duration都也相同
       pkt.pts = av_rescale_q_rnd(pkt.pts, in_stream->time_base, out_stream->time_base, (AVRounding)(AV_ROUND_NEAR_INF | AV_ROUND_PASS_MINMAX));
       pkt.dts = av_rescale_q_rnd(pkt.dts, in_stream->time_base, out_stream->time_base, (AVRounding)(AV_ROUND_NEAR_INF | AV_ROUND_PASS_MINMAX));
       pkt.duration = (int)av_rescale_q(pkt.duration, in_stream->time_base, out_stream->time_base);
       //再次标记字节流的位置,-1表示不知道字节流的位置
       pkt.pos = -1;

       //如果当前的帧是视频帧,则将我们定义的frame_index往后推
       if (pkt.stream_index == videoIndex)
       {
           qDebug() << "Send" << frame_index << "video frames to output URL" ;
           frame_index++;
       }

       //发送!!!
       ret = av_interleaved_write_frame(ofmt_ctx, &pkt);
       if (ret < 0)
       {
           qDebug() << "发送数据包出错";
           break;
       }

       //使用完了,记得释放
       av_packet_unref(&pkt);
   }
   //写文件尾(Write file trailer)
   av_write_trailer(ofmt_ctx);
   if(ifmt_ctx){
       avformat_close_input(&ifmt_ctx);
   }
   if (ofmt_ctx && ofmt_ctx->pb && !(ofmt_ctx->flags & AVFMT_NOFILE))
       avio_close(ofmt_ctx->pb);
   if (ifmt_ctx) {
     avformat_free_context(ofmt_ctx);
   }
}

void PushStreamThread::set_stop_flag(bool stop)
{
    stop_flag = stop;
}

使用 vcl 播放流
在这里插入图片描述

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1343787.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

docker-compose Install TeamCity

前言 TeamCity 是一个通用的 CI/CD 软件平台,可实现灵活的工作流程、协作和开发实践。允许在您的 DevOps 流程中成功实现持续集成、持续交付和持续部署。 系统支持 docker download TeamCity TeamCity 文档参考项目离线包百度网盘获取

Spring Boot学习随笔- 集成MyBatis-Plus,第一个MP程序(环境搭建、@TableName、@TableId、@TableField示例)

学习视频&#xff1a;【编程不良人】Mybatis-Plus整合SpringBoot实战教程,提高的你开发效率,后端人员必备! 引言 MyBatis-Plus是一个基于MyBatis的增强工具&#xff0c;旨在简化开发&#xff0c;提高效率。它扩展了MyBatis的功能&#xff0c;提供了许多实用的特性&#xff0c;…

Qt/C++音视频开发62-电子放大/按下选择区域放大显示/任意选取区域放大

一、前言 电子放大这个功能思考了很久&#xff0c;也是一直拖到近期才静下心来完整这个小功能&#xff0c;这个功能的前提&#xff0c;主要得益于之前把滤镜打通了&#xff0c;玩出花样来了&#xff0c;只要传入对应的滤镜字符串&#xff0c;就可以实现各种各样的效果&#xf…

学习笔记:R语言基础

文章目录 一、R语言简介二、选择R的原因三、R基本数据对象&#xff08;一&#xff09;向量&#xff08;二&#xff09;矩阵&#xff08;三&#xff09;数组&#xff08;四&#xff09;因子&#xff08;五&#xff09;列表&#xff08;六&#xff09;数据框&#xff08;七&#…

LLM之RAG实战(十一)| 使用Mistral-7B和Langchain搭建基于PDF文件的聊天机器人

在本文中&#xff0c;使用LangChain、HuggingFaceEmbeddings和HuggingFace的Mistral-7B LLM创建一个简单的Python程序&#xff0c;可以从任何pdf文件中回答问题。 一、LangChain简介 LangChain是一个在语言模型之上开发上下文感知应用程序的框架。LangChain使用带prompt和few-…

数据结构入门到入土——ArrayList与顺序表

目录 一&#xff0c;线性表 二&#xff0c;顺序表 1.接口实现 三&#xff0c;ArrayList简介 四&#xff0c;ArrayList使用 1.ArrayList的构造 2.ArrayList常见操作 3.ArrayList的遍历 4.ArrayList的扩容机制 五&#xff0c;ArrayLisit的具体使用 杨辉三角 一&#x…

SONiC和ONL所依赖的Debian版本说明

Debian 的最新几个版本 下一代 Debian 正式发行版的代号为 trixie — 测试&#xff08;testing&#xff09;版 Debian 12 (bookworm) — 当前的稳定&#xff08;stable&#xff09;版 Debian 11 (bullseye) — 当前的旧的稳定&#xff08;oldstable&#xff09;版 Debian 10&a…

CentOS7 系统安装

系统下载 官方下载 清华源下载 安装流程 1. 选择安装系统 2. 选择安装语言 3. 设置网络链接 4. 设置静态IP ![img](https://img-blog.csdnimg.cn/img_convert/53bfedd54b838f95bd8bcb2efa232e23.png)设置时区 5. 磁盘设置&#xff0c;无特殊需求默认就好 6. 安装模式选择 7…

jwt 介绍

目录 1&#xff0c;jwt 的出现问题 2&#xff0c;jwt 介绍3&#xff0c;jwt 令牌的组成3.1&#xff0c;header3.2&#xff0c;payload3.3&#xff0c;signature 4&#xff0c;验证5&#xff0c;总结 身份验证相关内容&#xff1a; 浏览器 cookie 的原理&#xff08;详&#xff…

计算机视觉技术-锚框

目标检测算法通常会在输入图像中采样大量的区域&#xff0c;然后判断这些区域中是否包含我们感兴趣的目标&#xff0c;并调整区域边界从而更准确地预测目标的真实边界框&#xff08;ground-truth bounding box&#xff09;。 不同的模型使用的区域采样方法可能不同。 这里我们介…

蓝牙物联网移动硬件数据传输系统解决方案

随着传感器技术、网络技术和数据传输技术的不断发展&#xff0c;人们对智能设备的需求日渐增强,利用传感器技术可以对周围环境进行准确和全面的感知&#xff0c;获取到实时信息&#xff0c;从而在网络中进行传输和共享&#xff0c;再通过服务器对各种数据进行保存、分析和挖掘等…

Transformer(seq2seq、self-attention)学习笔记

在self-attention 基础上记录一篇Transformer学习笔记 Transformer的网络结构EncoderDecoder 模型训练与评估 Transformer的网络结构 Transformer是一种seq2seq 模型。输入一个序列&#xff0c;经过encoder、decoder输出结果也是一个序列&#xff0c;输出序列的长度由模型决定…

乡村北斗预警预报应急通信调度方案

根据《中共中央国务院关于切实加强农业基础建设进一步促进农业发展农民增收的若干意见》&#xff08;中发[2008]1号&#xff09;等文件要求&#xff0c;要健全农业气象服务体系和农村气象灾害防御体系&#xff0c;充分发挥气象服务“三农”的重要作用。 随着中国北斗导航卫星系…

Spark应用程序的结构与驱动程序

Apache Spark是一个强大的分布式计算框架&#xff0c;用于处理大规模数据。了解Spark应用程序的结构和驱动程序是构建高效应用的关键。本文将深入探讨Spark应用程序的组成部分&#xff0c;以及如何编写一个Spark驱动程序来处理数据和执行计算。 Spark应用程序的结构 Spark应用…

CDN:内容分发的高速公路(上)

&#x1f90d; 前端开发工程师&#xff08;主业&#xff09;、技术博主&#xff08;副业&#xff09;、已过CET6 &#x1f368; 阿珊和她的猫_CSDN个人主页 &#x1f560; 牛客高级专题作者、在牛客打造高质量专栏《前端面试必备》 &#x1f35a; 蓝桥云课签约作者、已在蓝桥云…

如何拍摄好VR全景图片,VR全景图片后期处理有什么技巧

引言&#xff1a; VR全景图片是一种以全景视角呈现场景的图片&#xff0c;通过VR技术可以将用户带入虚拟的环境中&#xff0c;给人一种身临其境的感觉&#xff0c;那么如何才能更好的制作让人满意的全景图片呢&#xff1f; 一&#xff0e;如何拍摄好VR全景图片 1.选择合适的拍…

Java虚拟机中的垃圾回收

2 垃圾回收 2.1 判断一个对象是否可回收 2.1.1 引用计数法 如果一个对象被另一个对象引用&#xff0c;那么它的引用计数加一&#xff0c;如果那个对象不再引用它了&#xff0c;那么引用计数减一。当引用计数为 0 时&#xff0c;该对象就应该被垃圾回收了。 但是下面这种互相…

Linux自己的应用商店yum

&#x1f4ab;Linux系统如何安装软件 在Linux系统中我们可以通过多种方式安装软件&#xff0c;常见方式有以下三种&#xff1a;   1.源代码安装   2.rpm包安装   3.使用yum软件包管理器安装   早期人们通过下载软件源代码&#xff0c;然后再经过交叉编译等一系列工作下…

Vue学习day_03

普通组件的注册 局部注册: 创建一个components的文件夹 在里面写上对应的.vue文件 在对应的vue里面写上对应的3部分 template写上对应的核心代码 盒子等 style 写上对应的css修饰 在App.vue里面进行引用 import 导包 格式是 import 起个名字 from 位置 在写一个component…

【连接池】-从源码到适配(下),使用dynamic-datasource导致连接池没生效(升级版本)

写在前面 书接上文&#xff0c;连接池没生效&#xff0c;启用了一个什么默认的连接池。具体是什么&#xff0c;一起来看看源码吧。 目录 写在前面一、问题描述二、本地调试三、升级dynamic-datasource四、新的问题&#xff08;一&#xff09;数据源初始化问题&#xff08;二&am…