iOS直播技术原理

直播的技术

直播技术概况来说,可以分为 采集,前处理,编码,传输,解码,渲染 这几个环节

一个完整直播app实现流程

image.png

一个完整直播app架构

image.png

音视频采集

  • 音视频的采集是直播架构的第一个环节,也是直播的视频来源
  • 采集的来源包括:
    • PC端:屏幕摄像头(摄像头驱动适配)
    • OS端:摄像头采集(屏幕采集?)
    • Android端:屏幕摄像头采集(硬件过多,适配一堆坑)

前处理

  • 使用美颜相机&美图秀秀已经是网络发照片&发视频必备技能了
    • 80%的主播没有美颜简直不能看(当然还是有美女的)
    • 不能看如何吸引用户&观众
    • 对视频进行美颜,已成标配
  • 处理主要包括,美颜、模糊效果、水印等
  • 各个平台处理方式
    • PC端:美颜镜头、一些美颜软件
    • iOS端:图像处理库是GPUImage,提供了丰富的预处理效果,也可利用该库自定义设计
    • Android端:Google开源的grafika,是一个非常强大的图形处理库

编码

  • 不经编码的视频非常庞大,存储起来都麻烦,更何况网络传输
    • 编码通过压缩音视频数据来减少数据体积,方便音视频数据的推流,拉流和存储,能大大提高存储传输效率
    • 音视频必须经过压缩编码才能进行存储和传输
  • 编码方式:
    • 硬编码:使用非CPU进行编码,如显卡GPU、专用的DSP芯片等
    • 软编码:使用CPU进行编码(手机容易发热)
  • 各个平台处理:
    • iOS端:硬件兼容性较好,可以直接进行硬编码
    • Android端:硬编码较难,难找到统一的库兼容各个平台(推荐使用软编)
  • 编码标准:
    • 视频编码:H.265、H.264、VP8、VP9等
    • 音频编码:AAC、Opus

传输

  • 从推流端到服务端
    • 数据经过推流端采集和预处理,编码之后推流到服务端
    • 流传输就涉及到相应的传输协议,最常用的协议是RTMP、RTSP、HLS

流分发

  • 音频流推到服务器后,为了适配各个平台端各种不同协议,需要在服务端做一些流处理工作,比如转码成不同格式支持不同协议如 RTMP、HLS 和 FLV,以适应各个平台
    • 比如:iOS、Android、PC、网页
  • 甚至,为了配合一些运营需求,比如一些监管部门的要求,我们在服务端也提供了内容识别如鉴黄的功能

播放

  • 拉流获取音视频数据后,需要通过解码器解码,渲染才能在播放器上播放
  • 总体步骤概览:
    • 解协议:取出网络传输过程中一些无用信息
    • 解封装:获取到的是音频&视频放在一起的封装文件
    • 音视频解码:音视频都是经过压缩编码的内容,解码后才能进行播放
    • 音视频同步:视频&音频文件需要通过同步播放
    • 音视频播放:声卡&显卡等对音视频进行播放

你可能感兴趣的:(iOS直播技术原理)