深入剖析-ijkplayer框架【音视频开发】
随着互联网技术的源码迅猛发展,移动设备上的剖析视频播放需求日益增长,催生了一系列开源和闭源播放器。源码这些播放器的剖析功能虽然强大,兼容性也颇优,源码但其基本模块通常包括事务处理、剖析区块链借贷网站源码数据接收和解复用、源码音视频解码以及渲染。剖析以下是源码一个简化的基本框架图。
在众多播放器项目中,剖析我们选择了ijkplayer进行源码分析。源码ijkplayer是剖析一款基于FFPlay的轻量级Android/iOS视频播放器,支持跨平台,源码API易于集成,剖析编译配置可裁剪,源码方便控制安装包大小。本文基于ijkplayer的k0.7.6版本,重点分析其C语言实现的核心代码,以iOS平台为例,java图书销售源码Android平台实现类似,具体请读者自行研究。
ijkplayer的主要目录结构如下:tool(初始化项目工程脚本)、config(编译ffmpeg使用的配置文件)、extra(存放编译ijkplayer所需的依赖源文件,如ffmpeg、openssl等)、ijkmedia(核心代码)、ijkplayer(播放器数据下载及解码相关)、ijksdl(音视频数据渲染相关)、ios(iOS平台上的上层接口封装以及平台相关方法)、android(android平台上的上层接口封装以及平台相关方法)。iOS和Android平台在功能实现上的主要差异在于视频硬件解码和音视频渲染。
ijkplayer的初始化流程包括创建播放器对象,打开ijkplayer/ios/IJKMediaDemo/IJKMediaDemo.xcodeproj工程,在IJKMoviePlayerViewController类中viewDidLoad方法中创建了IJKFFMoviePlayerController对象,即iOS平台上的播放器对象。
ijkplayer的编程找色源码初始化方法具体实现如下:创建了IjkMediaPlayer结构体实例_mediaPlayer,主要完成了以下三个动作:创建平台相关的IJKFF_Pipeline对象,包括视频解码以及音频输出部分;至此,ijkplayer播放器初始化的相关流程已经完成。
ijkplayer实际上是基于ffplay.c实现的,本章节将以该文件为主线,从数据接收、音视频解码、音视频渲染及同步这三大方面进行讲解,要求读者具备基本的ffmpeg知识。
当外部调用prepareToPlay启动播放后,ijkplayer内部最终会调用到ffplay.c中的stream_open方法,该方法是启动播放器的入口函数,在此会设置player选项,打开audio output,最重要的是调用stream_open方法。
从代码中可以看出,stream_open主要做了以下几件事情:创建上下文结构体,设置中断函数,全景官网源码打开文件,探测媒体类型,打开视频、音频解码器,读取媒体数据,将音视频数据分别送入相应的queue中,重复读取和送入数据步骤。
ijkplayer在视频解码上支持软解和硬解两种方式,可在播放前配置优先使用的解码方式,播放过程中不可切换。iOS平台上硬解使用VideoToolbox,Android平台上使用MediaCodec。ijkplayer中的音频解码只支持软解,暂不支持硬解。
ijkplayer中Android平台使用OpenSL ES或AudioTrack输出音频,iOS平台使用AudioQueue输出音频。audio output节点在ffp_prepare_async_l方法中被创建。
iOS平台上采用OpenGL渲染解码后的socket.h源码YUV图像,渲染线程为video_refresh_thread,最后渲染图像的方法为video_image_display2。
对于播放器来说,音视频同步是一个关键点,同时也是一个难点。通常音视频同步的解决方案就是选择一个参考时钟,播放时读取音视频帧上的时间戳,同时参考当前时钟参考时钟上的时间来安排播放。
ijkplayer支持的事件比较多,具体定义在ijkplayer/ijkmedia/ijkplayer/ff_ffmsg.h中。在播放器底层上报事件时,实际上就是将待发送的消息放入消息队列,另外有一个线程会不断从队列中取出消息,上报给外部。
本文只是粗略的分析了ijkplayer的关键代码部分,平台相关的解码、渲染以及用户事务处理部分,都没有具体分析到,大家可以参考代码自行分析。
ffmpeg播放器实现详解 - 音频同步控制
在深入剖析ffmpeg播放器实现的音频同步控制之前,让我们首先理解同步的时间基准。在ffmpeg的体系中,有三种时间基准:音频时钟、视频时钟与系统时钟。视频时钟用来追踪当前视频播放的时间戳位置,计算方式大致等于当前播放视频帧的pts加上一个修正值delta。这一修正值delta在取得视频时钟(即当前帧pts)的时刻与调用get_video_clock时刻之间的时间间隔上,用于修正延迟。系统时钟追踪的是系统时间戳,它以1/秒为单位,便于在不同平台间移植。值得注意的是,不同流媒体协议和媒体格式的时间戳格式各有不同,因此,ffmpeg以1/.0作为其内部时基基准。实现系统时钟的方式可参考相关注释。
在已经具备了音视频及系统时钟的基础之上,我们可以根据主同步源类型获取相应的时间戳值。接下来,让我们探讨音频同步策略。为了音频的同步,我们引入了几个关键变量以追踪音频时钟与主同步源间的时差,并控制同步时机。音频同步的原理与视频同步类似,通过增加或减少音频数据的播放时间来实现。与视频同步不同,音频帧播放时间较短,约为.ms。因此,音频同步采用插值或丢帧的方式来实现,避免因同步操作带来的声音失真变形。具体实现时,当音频时钟滞后于主时钟,采用插值方式,通过复制最后一个音频数据进行插值,以实现与主时钟同步。而当音频时钟超前于主时钟,则直接采取丢帧方式,将超前主时钟时间对应的采样数据丢弃。
在音频同步的实现中,选择合适的同步时机至关重要。通常,视频播放速率保持在fps左右,音频帧播放时间则较短,约为.ms。由于音视频播放时间不相等,音频同步是相对的、暂时的,而非绝对同步。因此,我们需要选择恰当的时机对音频进行同步,避免过多的插值与丢帧操作,以确保声音波形的平滑度。这通常通过追踪音频不同步次数的变量来实现。当判定音频时钟与主同步源的时差超过某个阈值时,增加音频不同步的次数,直到达到某个阈值时触发丢帧或插值动作。同时,考虑到时差的波动性,采用加权方式评估时差的大小,以降低早期时差对总时差的影响。
在深入理解音频同步策略之后,让我们通过源码编译验证理论知识。源码的编译方法与之前的例程保持一致,可使用Makefile脚本进行编译。执行make命令即可开始编译过程,编译完成后,可在源码目录生成名为tutorial的可执行文件。使用方法类似于ffplay,执行tutorial url命令,其中url可为本地视频文件或媒体流地址。通过输入Ctrl+C即可结束程序运行。
年 C++音视频开发学习路线(ffmpeg/rtsp/srs/webrtc/hls)
音视频工作领域繁复多样,自学时易陷入迷茫。本文整理出九个前景不错的方向:直播、传输、算法、视频播放器、流媒体后端、短视频、音频播放、视频编辑、图像处理。以下为详细学习路线: 音视频基础音频基础知识
视频基础知识
解复用基础知识
FFmpeg开发环境搭建
音视频开发常用工具
FFmpeg实战教程FFmpeg命令
SDL跨平台
FFmpeg基石精讲
FFmpeg过滤器
FFmpeg音视频解复用+解码
ffplay播放器
FFmpeg音视频编码+复用合成视频
ffmpeg多媒体
FFmpeg+ QT播放器
流媒体客户端RTMP推拉流项目实战
RTSP流媒体实战
HLS拉流分析
流媒体服务器SRS源码剖析协程
ZLMediaKit源码剖析
WebRTC项目实战WebRTC中级开发实践指南
WebRTC高级开发-SRS 4.0/5.0源码分析
WebRTC高级开发-MESH模型多人通话
WebRTC高级开发-Janus SFU模型多人通话
Android NDKAndroid NDK开发基础
Android FFmpeg编译和应用
Android RTMP推拉流
Android Ijkplayer源码分析
iOS音视频开发iOS FFmpeg 6.0编译和应用
iOS FFmpeg RTMP推拉流
VideoToolbox硬件编解码
iOS jkplayer编译和应用
iOS ijkplayer编译和应用
音视频项目实战 相关开源网站与地址 本文涵盖音视频全栈开发技术,适合各类技术人员。2024-11-30 10:17
2024-11-30 09:36
2024-11-30 09:16
2024-11-30 09:10
2024-11-30 09:01