iOS直播视频技术概述一

直播技术概况来说,可以分为 采集,前处理,编码,传输,解码,渲染 这几个环节

image.png

音视频采集

    1. 音视频的采集是直播架构的第一个环节,也是直播的视频来源
  • 2.采集的来源包括:
    • PC端:屏幕摄像头(摄像头驱动适配)
    • iOS端:摄像头采集(屏幕采集?)
    • Android端:屏幕摄像头采集(硬件过多,适配一堆坑)

前处理

  • 1.使用美颜相机&美图秀秀已经是网络发照片&发视频必备技能了
    • 80%的主播没有美颜简直不能看(当然还是有美女的)
    • 不能看如何吸引用户&观众
    • 对视频进行美颜,已成标配
  • 2.处理主要包括,美颜、模糊效果、水印等
    +总之就是让人变美、变帅
    • 各个平台处理方式
    • PC端:美颜镜头、一些美颜软件
    • iOS端:图像处理库是GPUImage,提供了丰富的预处理效果,也可利用该库自定义设计
    • Android端:Google开源的grafika,是一个非常强大的图形处理库

编码

+1.不经编码的视频非常庞大,存储起来都麻烦,更何况网络传输
编码通过压缩音视频数据来减少数据体积,方便音视频数据的推流,拉流和存储,能大大提高存储传输效率
音视频必须经过压缩编码才能进行存储和传输

  • 2.编码方式:
    硬编码:使用非CPU进行编码,如显卡GPU、专用的DSP芯片等
    软编码:使用CPU进行编码(手机容易发热)
  • 3.各个平台处理:
    iOS端:硬件兼容性较好,可以直接进行硬编码
    Android端:硬编码较难,难找到统一的库兼容各个平台(推荐使用软编)
  • 4.编码标准:
    视频编码:H.265、H.264、VP8、VP9等
    音频编码:AAC、Opus

传输

  • 1.从推流端到服务端
    数据经过推流端采集和预处理,编码之后推流到服务端
    流传输就涉及到相应的传输协议,最常用的协议是RTMP、RTSP、HLS
  • 2.搭建nginx+rtmp服务器进行推流演示

流分发

  • 音频流推到服务器后,为了适配各个平台端各种不同协议,需要在服务端做一些流处理工作,比如转码成不同格式支持不同协议如 RTMP、HLS 和 FLV,以适应各个平台
    比如:iOS、Android、PC、网页
  • 甚至,为了配合一些运营需求,比如一些监管部门的要求,我们在服务端也提供了内容识别如鉴黄的功能

播放

  • 1.拉流获取音视频数据后,需要通过解码器解码,渲染才能在播放器上播放
  • 2.总体步骤概览:
    • 解协议:取出网络传输过程中一些无用信息
    • 解封装:获取到的是音频&视频放在一起的封装文件
    • 音视频解码:音视频都是经过压缩编码的内容,解码后才能进行播放
    • 音视频同步:视频&音频文件需要通过播放
    • 音视频播放:声卡&显卡等对音视频进行播放

你可能感兴趣的:(iOS直播视频技术概述一)