视频:视频是由一幅幅单独的画面序列(帧 frame)组成 ,这些画面以一定的速率(帧率 fps)连续地投射在屏幕上,使观察者具有图像连续运动的感觉
模拟视频(Analog Video)是一种用于传输图像并且随时间连续变化的电信号。依靠调幅的手段在空间传播,或用盒式磁带录像机存放在磁带上。
摄像机前的被拍摄物体的不同亮度对应于不同的亮度值,摄像机电子管中的电流会发生相应的变化。模拟信号就是利用这种电流的变化来表示或者模拟所拍摄的图像,记录下它们的光学特征,然后通过调制和解调,将信号传输给接收机,通过电子枪显示在荧光屏上,还原成原来的光学图像。
隔行扫描(交错扫描 Interlaced Scanning):相对于逐行扫描;,这是一种在不消耗额外带宽的情况下将视频显示的感知帧速率加倍的技术。隔行扫描信号包含在两个不同时间捕获的视频帧的两个场(Field)。
模拟电视中最重要的因素之一是信号带宽,以兆赫为单位。带宽越大,整个生产和广播链越昂贵,越复杂。这包括摄像机,存储系统,广播系统和接收系统:地面,有线,卫星,互联网和最终用户显示器(电视和计算机监视器)。
对于固定带宽,隔行扫描为给定行数提供了两倍显示刷新率的视频信号(与逐行扫描相比)视频以类似的帧速率 - 例如1080i,每秒60帧半帧,而1080p每秒30帧全帧)。较高的刷新率改善了运动中物体的外观,因为它更频繁地更新其在显示器上的位置,并且当物体静止时,人类视觉组合来自多个相似半帧的信息以产生与所提供的相同的感知分辨率。通过渐进的全帧。如果源材料具有更高的刷新率,则此技术仅有用。电影电影通常以24fps记录,因此不会受益于隔行扫描,这种解决方案可将最大视频带宽降低到5MHz而不会降低60Hz的有效图像扫描速率。
给定固定带宽和高刷新率,隔行扫描视频还可以提供比逐行扫描更高的空间分辨率。例如,具有60 Hz场频的1920×1080像素分辨率隔行扫描HDTV(称为1080i60或1080i / 30)具有与具有60 Hz帧速率(720p60或720p / 60)的1280×720像素逐行扫描HDTV类似的带宽。 ,但是对于低运动场景,空间分辨率大约是其两倍。
但是,带宽优势仅适用于模拟或未压缩的数字视频信号。对于所有当前数字电视标准中使用的数字视频压缩,隔行扫描引入了额外的低效率。。EBU已经进行了测试,表明隔行扫描视频相对于逐行扫描视频的带宽节省最小,即使帧速率提高了两倍。即,1080p50信号产生与1080i50(又名1080i / 25)信号大致相同的比特率,和1080p50实际上需要较少的带宽,以便在编码“运动”时主观上比1080i / 25(1080i50)等效更好。输入“场景。
在VHS以及使用旋转鼓在录像带上录制视频的大多数其他模拟视频录制方法都受益于隔行扫描。在VHS上,鼓每帧转动一整圈,并带有两个图像头,每个图像头在每次旋转时扫描一次磁带表面。如果设备用于记录逐行扫描视频,则磁头的切换将落在图像的中间并显示为水平频带。隔行扫描允许切换发生在图像的顶部和底部,标准电视机中的区域对于观看者是不可见的。该设备也可以比每次扫描记录全帧时更紧凑,因为这需要双倍直径的鼓以角速度的一半旋转,并在磁带上进行更长,更浅的扫描以补偿每次扫描的双倍线数。然而,相同的图像区域,基本上将垂直分辨率减半,直到播放进行。另一种选择是在实际停止磁带之前按下暂停按钮捕获一个完整的帧(两个字段),然后从帧缓冲区重复再现它。后一种方法可以产生更清晰的图像,但是通常需要一定程度的去隔行以获得显着的视觉效果。虽然前一种方法会产生朝向图像顶部和底部的水平伪影,因为磁头不能沿着磁带表面精确地穿过与在移动磁带上记录时完全相同的路径,但这种不对准实际上会随着逐行记录而变差。
隔行扫描可用于制作3D电视节目,特别是对于CRT显示器,尤其是对于彩色滤光眼镜,通过在交替场中传输每只眼睛的彩色键控图像。这不需要对现有设备进行重大改动。快门眼镜也可以采用,显然需要实现同步。如果使用逐行扫描显示来查看这种编程,则任何对图像进行去隔行扫描的尝试都会使效果无效。对于彩色滤光眼镜,图像必须是缓冲的并且显示为具有交替的彩色键控线的渐进式,或者每个场必须被线性加倍并显示为离散帧。后一种程序是在逐行显示器上适合快门眼镜的一种方法。
YUV是一种颜色编码方法,主要用于电视系统以及模拟视频领域,它将亮度信息(Y)与色彩信息(UV)分离。
优点:
YCbCr 是在世界数字组织视频标准研制过程中作为ITU - R BT.601 建议的一部分,相当于YUV经过缩放和偏移的版本。
数字视频:以数字形式记录的视频
A/D转换(将模拟信号转换成数字信号的电路,称为模数转换器,analog to digital converter):为了在PAL、NTSC和 SECAM电视制式之间确定共同的数字化参数,国家无线电咨询委员会(CCIR)制定了广播级质量的数字电视编码标准,称为CCIR 601标准,对采样频率、采样结构、色彩空间转换等都作了严格的规定
由于视频信息十分丰富且信息量大,而当今网络的传输速度慢,如果按传统的计算机文件的处理方式来处理网络视频数据信息,将会造成麻烦。通常情况下,计算机处理文件是完整地进行处理的,也就是说文件在被处理的时候必须是一个完整的整体。文件一旦遭到损坏,或者只有一半的内容,那么计算机将认为该文件是坏的,是不可处理的。如果这套原则也同时适用于网络视频文件的话,观赏者至少得等数十分钟到数小时,等视频文件下载完后才能看到,这显然让人难以接受。
解决的办法是采用一种专用的流体化技术提取文件。这种流体化技术的原理是这样的:服务器在向用户传输视频文件时,不是一次将文件整体发送出去,而是先按播放的时间顺序将其分为小的片断,类似于图像中的帧,然后将这些片断依次发给用户。用户的网络播放工具接收到这些片断后,连续播放这些片断,就可以产生完整的声音和图像,只是开始时有些延迟。网上直播时视频文件的产生也是不断生成新的片断。为了保证声音、图像的播放效果,服务器与用户计算机间的网络传输速度有一定的要求。如果网络传输速度较慢,播放时就会出现断断续续的现象。应用中可以根据用户的实际带宽,提供用户不同清晰度的播放效果。这就是视频流技术。
所谓视频流,就是一种视频数据信息的传输方式,使用这种方式,用户可以在没有接到完整的数据信息前就能处理那些已接收的信息。这种一边接收,一边处理的方式,很好地解决了视频数据信息在网络上的传输问题。使用者可以不必等待太长的时间,就能收看到视频数据信息。并且在此之后一边播放,一边接收,根本不会感觉到文件没有传完。
数据率 = (720像素 * 576行 * 25帧) * 2字节/s=20736000字节/s ≈ 165 Mbps
视频数据的压缩和解压缩:视频图像的信息量是巨大的。例如1幅640×480中分辨度的彩色图像(24bit/像素),其数据量为0.92MB,如果以每秒30帧的速度播放,则视频信号的数码率高达27.6Mbps。为了在一定的带宽条件下完成视频传送,必须压缩视频文件的信息量,容忍一定的视频质量降级。但是,压缩文件有时候会把原有的精华都给去掉,使得最终的产品失去了原有的魅力。所以还必须灵活有效地控制文件的压缩。显然,视频压缩技术数字化是压缩技术的关键。
目前比较流行的视频压缩和解压缩技术有动态视频压缩国际标准MPEG和微软的NetShow及Real Networks公司的RealVideo的音频视频编码/解码技术。
MPEG是国际标准化组织的运动图像专家组在1990年12月制定的,MPEG-1在1992年成为标准,它的核心技术是离散余弦变换及运动补偿算法,它的主要思想是通过减少每帧图像间时间上和空间上的冗余性和相关性信息来减少数据量。MPEG-l在800KbPs~2Mbps的传输速率下图像清晰度能达到较好的图像效果。MPEG针对宽带网或要求高清晰度画面的局域网(校园网)的视频数据压缩技术,而NetShow和RealVideo的音视频编码/解码技术针对低比特率的应用领域。
视频数据的实时传输:视频文件的传送是实时的,且视频数据发送主机(服务器)和接收显示主机(用户终端)位于不同地点,通过计算机局域网或广域网连接,具有分布性,但在用户终端显示时必须保持同步,另外,声音与视频也必须保持同步。为了确保视频数据传输的实时性和同步性。国际通信联合会(International Telecommunication Union,ITU)和国际互联网工程任务组(Internet Engineering Task Force,IETF)设计了一个实时传输协议RTP(RealTime Transport Protocol)来解决传输实时性数据的难题。RTP一般运行在不可靠的协议层上如UDP(事实上经数学统计UDP包的可靠性在99%以上)。每个经过RTP传输的数据包中有时间信息和一个相关的序列号,这个信息使应用程序混合音频和视频信息相对容易。由于应用程序可以很容易地决定当视频帧需要略过时将跳到的正确数据包号,因此同每个包相关的时间信息可以平滑同步过程。
高清视频:HDTV规定了视频必须至少具备720线非交错式(720p)或1080线交错式隔行(1080i)扫描,屏幕纵横比为16:9。音频输出为5.1声道,同时能兼容接收其它较低格式的信号并进行数字化处理重放。
4K 超高清视频 UHD:4K分辨率是指水平方向每行像素值达到或者接近4096个,即4096x2160分辨率。根据使用范围的不同,4K分辨率也有各种各样的衍生分辨率 , 例如Full Aperture 4K的4096x3112、Academy 4K的3656x2664以及UHDTV标准的3840x2160等
规格表:
为何要进行视频压缩:图象和视频通常在计算机中表示后会占用非常大的空间,而出于节省硬盘空间的考虑,往往要进行压缩。同时,传输过程中,为了节省珍贵的带宽资源和节省时间,也迫切要求压缩。压缩之后,传输过程中的误码率也会相应地减少。
视频为何能被压缩:因为冗余,视频有大量压缩空间
视频编解码系统有五步:预测、变换、量化、熵编码、环内滤波。
原始值 = 预测值 + 残差。
一般地,残差的信息量 < 原始值的信息量,如果在解码端预测值能够通过某种方法估计到,那么只需要编码残差信息,就可在解码端恢复原始值,从而达到了压缩的目的
空域预测:图像被分成若干块,以块为单位做编解码,严格按照某种次序编码和解码。按照特定顺序解码, 在解码当前像素之前,如果相邻像素已经解码完,那么就可用来预测当前像素的值!
DCT变换:
量化是降低数据表示精度的过程,通过量化可以减少需要编码的数据量,达到压缩数据的目的。量化会引起失真。如果能利用人眼的视觉冗余特性,进行合理量化,使失真对人眼视觉的影响尽量小
统计冗余的消除主要通过熵编码来实现。利用信源的信息熵进行码率压缩的编码方式称为熵编码
分块DCT和量化会引入块效应,降低解码图像质量和预测效率,对解码图像进行滤波有助于消除块效应,提高预测效率
一个复杂的平衡关系存在于以下因素之间:视频的失真、用来表示视频所需要的数据量(码率)、编码算法和解码算法复杂度
既然都有国际标准了,为什么还要做国家标准:
音视频国家标准AVS:距离H.265/HEVC标准正式发布已经有多年时间,虽然其压缩效率比H.264/AVC高出一倍,可以为视频公司节约带宽成本,但H.264仍是目前最流行的视频编码格式。除了复杂度高、实现困难外,H.265/HEVC高昂的专利费用和复杂的授权政策也是阻碍其推广的重要因素
MPEG LA还延续着以往的收费习惯,终端销量在10万台以下的不收费,超过的部分每台收取0.2美元的授权费,封顶费用每年2500万美元。值得一提的是,MPEG LA针对视频内容不再单独收费HEVC Advance终端设备要缴纳0.2-1.2美元不等,封顶年费4000万美元。在内容方面,除了对终端用户提供免费内容的供应商外,其他内容提供商也要根据订阅数、节目数和媒体数收费,封顶年费500万美元。保守估计每年需向三个专利池( 还有Velos Media )和Technicolor公司缴纳的H.265/HEVC专利许可封顶费用会超过1亿美元!
往事:中国DVD产业:
音视频国家标准AVS:
音视频国家标准AVS2:
AVS1和AVS+采取“AVS专利池”统一许可模式,每个编解码器只象征性得收取1元专利费,不对内容收费;而且在工作组成立之初就制定了规则:凡是向AVS工作组提交技术和提案的单位都需要对其专利许可意向做出承诺,允许免费使用或者加入“AVS专利池”。AVS2的专利授权将沿用AVS1的统一许可模式,只对设备象征性收费,不对内容收费。特别的,对互联网上的软件服务免收专利费。实际上,AVS并没有收取过专利费
AV1简介:
音视频国家标准AVS3:
FFmpeg 是一套可以用来记录、转换数字音频、视频,并能将其转化为流的开源计算机程序。
FFmpeg在Linux平台下开发,但它同样也可以在其它操作系统环境中编译运行,包括Windows、Mac OS X等。这个项目最早由Fabrice Bellard发起,2004年至2015年间由Michael Niedermayer主要负责维护。许多FFmpeg的开发人员都来自MPlayer项目。
项目的名称来自MPEG视频编码标准,前面的"FF"代表"Fast Forward"。
ffmpeg:该项目提供的一个工具,可用于格式转换、解码、编码等
ffplay:一个简单的命令行播放器,使用ffmpeg 库解析和解码
ffprobe:查看多媒体文件信息的工具
一系列库函数
FFMPEG实例:
ffmpeg –i input.ts -c copy output.mp4
。-i 指定输入视频路径;-c codec模式 copy 复制 -c:vffmpeg -i input.mp4 -vcodec mpeg4 -b:v 20m -r 30 -an output.avi
。-b:v 20m:码率;-r 30:帧率 ffmpeg -i F:\test\4K.ts -vframes 500 F:\test\UHD.yuv
ffmpeg -s 1920x1080 -pix_fmt yuv444p -i 1.yuv -pix_fmt yuv420p 2.yuv
ffmpeg -s 1920x1080 -i input.yuv -vcodec libx264 -crf 15 output_1920x1080.mp4
(质量控制参数 -crf 0~51,0无损,18视觉无损,25直播常用,越高越差一般18-30)ffmpeg -i input_HEVC.mp4 -vcodec libx264 -acodec copy -r 24 -crf 25 output.mp4
ffmpeg -i 4K_HDR.mp4 -pix_fmt yuv420p10 -vcodec libx264 -x264-params colormatrix=bt2020nc:transfer=smpte2084:colorprim=bt2020 -preset slow -b:v 20M output.mp4 -y
ffmpeg -i input.mp4 -metadata:s:v rotate="180" -codec copy out_rotation.mp4
ffmpeg -i input.mp4 -an -f hls -hls_time 4 -vcodec copy -y ./path/%04d.mp4
ffmpeg -f concat -safe 0 -i ./list.txt -vcodec libx265 -crf 15 out_concat.mp4
(其中 list.txt 是合并视频的文件列表)ffmpeg -i input.mp4 -vsync 0 PATH/%04d.png -y -pix_fmt yuv422p
ffmpeg -i input.mp4 -q:v 2 -s 1920x1080 -f image2 PATH/%04d.png
ffmpeg -threads 8 -y -r 30 -i PATH /%04d.png -vcodec libx264 -crf 18 -pix_fmt yuv420p output.mp4
ffmpeg -i input.mp4 -vf scale=960x540:flags=lanczos -vcodec libx264 -crf 25 output.mp4
ffmpeg -i input.mp4 -vf unsharp=5:5:2 output.mp4
ffmpeg -i input.mp4 -vf hqdn3d output.mp4
ffmpeg -i input.mp4 –vf "movie=logo.png,scale=64:32 [watermask];[in][watermask] overlay=30:10 [out]" watermark.mp4
ffmpeg -i input.mp4 -c copy -an output_an.mp4
ffmpeg -i input_v.mp4 -i input_a.ts -c copy -map 0:0 -map 1:0 -y output.mp4
ffprobe input.mp4
ffplay input.mp4
ffplay -f lavfi -i 'movie=Left.mp4,pad=2*iw:ih[main]; movie=Right.mp4[ov];[main][ov]overlay=x=W-w'
FFmpeg是在LGPL/GPL开源协议下发布的(如果使用了其中一些使用GPL协议发布的模块则必须使用GPL协议),任何人都可以自由使用,但必须严格遵守LGPL/GPL协议。有很多播放软件都使用了FFmpeg的代码,但也有不少侵权商用行为。
将各类图像传感器、摄像机、录像机、电视机等视频设备输出的视频信号进行采样、量化等操作,从而转化成数字数据
视频剪辑是对视频源进行非线性编辑,属多媒体制作软件范畴。
通过对加入的图片、背景音乐、特效、场景等素材与视频进行重混合,对视频源进行切割、合并、编码,生成具有不同表现力的新视频。
Adobe Premiere(Pr): Adobe开发的一款常用视频编辑软件, 目前广泛应用于广告制作和电视节目制作中,支持Windows和Mac OS。Premiere Pro是视频编辑爱好者和专业人士必不可少的视频编辑工具。它是高自由度、易学、高效、精确的视频剪辑软件。Premiere提供了采集、剪辑、调色、美化音频、字幕添加、输出、DVD刻录的一整套流程,并和其他Adobe软件高效集成,满足创建高质量视频作品的要求
DaVinci Resolve System:达芬奇调色系统自1984年以来就一直誉为后期制作的标准,许多电影/广告/纪录片/电视剧和音乐电视制作中调色师都使用达芬奇调色。
Adobe After Effect:是Adobe推出的一款图形视频处理软件,适用于从事设计和视频特技的机构,包括电视台、动画制作公司、个人后期制作工作室以及多媒体工作室。属于层类型后期软件。
其他影视后期特效软件:
如果有兴趣了解更多相关内容,欢迎来我的个人网站看看:瞳孔的个人空间