AVFoundation 视频剪切合成

本篇将要用到的是AVMutableComposition ,这是一个将现有的媒体资源进行合并剪切成一个新的视频、音频的类。它提供了以下功能:

  • 添加/删除音视频轨道
  • 选择音视频轨道的时间段

AVMutableComposition是继承自AVComposition。简单的来说,AVComposition就是将来自多个基于源文件的媒体数据组合在一起显示,或处理来自多个源媒体数据的东西。它是继承自AVAsset也就是说这都是一家子的东西。如果想更多的了解AVMutableCompositionAVComposition的区别的话,建议看一下这篇文章:《OC之合成资源AVComposition》
话不多说,我们先来看看,这个东西应该怎么应用起来吧。
这里大家可以先理解它其实就是一个容器,需要我们放入各种各样的音视频媒体数据,去订制出我们所希望得到的东西,当然正式导出生成视频的是另一个东西:AVAssetExportSession
首先我们导入了需要进行合并的媒体资源文件:

       path = Bundle.main.path(forResource: "IMG_2735", ofType: "mp4")
       let url = URL.init(fileURLWithPath: path)
       let options = [AVURLAssetAllowsCellularAccessKey:false,AVURLAssetPreferPreciseDurationAndTimingKey:true]
       firstAsset = AVURLAsset.init(url: url, options: options)
       
       let voicePath = Bundle.main.path(forResource: "SuperMarioBros", ofType: "mp3")
       let url2 = URL.init(fileURLWithPath: voicePath!)
       secAsset = AVURLAsset.init(url: url2)
       
       let voicePath2 = Bundle.main.path(forResource: "MaiDou", ofType: "mp3")
       let url3 = URL.init(fileURLWithPath: voicePath2!)
       let thireAsset = AVURLAsset.init(url: url3)
       
       let videoAssetTrack = firstAsset.tracks(withMediaType: .video).first
       let audioAssetTrack = secAsset.tracks(withMediaType: .audio).first
       let audioAssetTrack2 = thireAsset.tracks(withMediaType: .audio).first

然后我们再来初始化一下容器AVMutableComposition,并创建对应要放内容的轨道

//合成器
composotion = AVMutableComposition.init()
  //视频轨道
let videoCompostiontrack = composotion.addMutableTrack(withMediaType: .video, preferredTrackID: kCMPersistentTrackID_Invalid)
        //音频轨道1
let audioCompostiontrack = composotion.addMutableTrack(withMediaType: .audio, preferredTrackID: kCMPersistentTrackID_Invalid)
        //音轨2
let audioCompositiontrack2 = composotion.addMutableTrack(withMediaType: .audio, preferredTrackID: kCMPersistentTrackID_Invalid)

这里导入了一个视频文件内容还有,两个音频轨道的内容
这里需要说明一下kCMPersistentTrackID_Invalid这个ID是用来指定当前所有的资源信息,放到一个Composition里,是准备合成一个的标记。

再把这上面的三个资源都放入里面,在放进去的时候,需要选择每一个资源的时间起止,通过这样来进行准确的混合:

//为视频轨道放入视频
let v = 0.8 * Float(firstAsset.duration.seconds) * videoAssetTrack!.nominalFrameRate
let e = 0.1 * Float(firstAsset.duration.seconds) * videoAssetTrack!.nominalFrameRate
let v_start = CMTime.init(value: CMTimeValue(v), timescale: CMTimeScale(videoAssetTrack!.nominalFrameRate))
let v_endTime = CMTime.init(value: CMTimeValue(e), timescale: CMTimeScale(videoAssetTrack!.nominalFrameRate))
print(v_start.seconds)
print(v_endTime.seconds)
let theTime = CMTimeRangeMake(start: v_start, duration: v_endTime)
        
try?videoCompostiontrack?.insertTimeRange(theTime, of: videoAssetTrack!, at: CMTime.zero)
//为音频轨道放入音频
let theTimeAudio = CMTimeRangeMake(start: CMTime.zero, duration: CMTime.init(value: CMTimeValue(e*0.65), timescale: CMTimeScale(videoAssetTrack!.nominalFrameRate)))
try?audioCompostiontrack?.insertTimeRange(theTimeAudio, of: audioAssetTrack!, at: CMTime.zero)
//为音频轨道放入音频2
let theTimeAudio2 = CMTimeRangeMake(start: CMTime.zero, duration: (audioAssetTrack2?.timeRange.duration)!)
        
let st2 = CMTime.init(value: CMTimeValue(e*0.65), timescale: CMTimeScale(videoAssetTrack!.nominalFrameRate))
print(st2.seconds)
try?audioCompositiontrack2?.insertTimeRange(theTimeAudio2, of: audioAssetTrack2!, at: st2)

这里需要提醒一下的是,由于每个资源文件的时间帧间隔都有可能存在差异性,所以当为视频轨道配上音频轨道的时候,最好以视频轨道的时间帧间隔作为基准来设置截取的时间段,不然就有可能出现音视频的同步和想象中的不一样的问题。
同样的音视频的裁剪截取、视频帧获取等等,都离不开关键的CMTime,还不了解这个的,需要在进一步的学习高浩浩浩浩浩浩

最后,需要把这个容器内的音视频轨道资源,导出成一个新的文件,这时候就需要用到导出类AVAssetExportSession


        let exporter = AVAssetExportSession.init(asset: composotion, presetName: AVAssetExportPresetHighestQuality)
        let path = NSSearchPathForDirectoriesInDomains(.documentDirectory, .userDomainMask, true).first
        let filePath = path!+"/test.mp4"
        try?FileManager.default.removeItem(atPath: filePath)
        
        exporter?.outputURL = URL.init(fileURLWithPath: filePath)
        
        exporter?.outputFileType = .mp4
        exporter?.shouldOptimizeForNetworkUse = true
        exporter?.exportAsynchronously(completionHandler: {
            if exporter?.error != nil{
                print(exporter?.error)
            }else{
            
            }
            DispatchQueue.main.async {
                self.playIt(url: URL.init(fileURLWithPath: filePath))
            }
        })

为了验证我们最后是不是成功导出了该视频,我决定在导出成功之后,使用AVPlayer来播放一下:

    func playIt(url:URL) {
        let item = AVPlayerItem.init(url: url)
        let player = AVPlayer.init(playerItem: item)
        let layer = AVPlayerLayer.init(player: player)
        layer.frame = playerImgv.frame
        layer.videoGravity = .resizeAspect
        playerImgv.layer.addSublayer(layer)
        player.play()
    }

后面或有更多AVFoundation的相关知识记录在此,欢迎关注。

你可能感兴趣的:(AVFoundation 视频剪切合成)