2021 LiveVideoStackCon回归上海

上周周末,忙完了LiveVideoStackCon SFO第二天下午的活动,从办公室走出来,一些冰凉的东西打在脸上——北京迎来了庚子年冬天的第二场雪,我兴奋的拍了张照片发到团队工作组里。为什么看到雪会如此兴奋?可能是上学的时候被植入了“瑞雪兆丰年”的认知,虽然我并不种庄稼,但是这种对自然规律的总结,也许能映射到商业领域吧。

2020年的LiveVideoStackCon受到COVID-19的影响,两次改期,并不得不改为线上大会。这样一算,明年4月即将举办的LiveVideoStackCon是时隔两年再次回归上海。

那么,这场大会会有哪些亮点呢?从技术与生态发展来看,我把他总结为以下5点:

  1. AI辅助内容生产
  2. 云+端+边缘架构
  3. 硬件加速
  4. 沉浸体验
  5. 端到端低延迟

第一点关注的是AI技术如何解放多媒体行业的生产力,第二和第三点强调了多媒体相关基础设施的技术升级,第四和第五点强调的是用户体验。让我们来逐个解读下。

AI辅助内容生产

从Google的url2video,到百度的Vidpress,从NLP、TTS到网易AI生成歌曲《醒来》,从视频到音频,自动化的生产工具变得越来越有趣,随着未来多媒体消费不断升级,流媒体自动化生产工具也会迎来快速发展周期。

云+端+边缘架构

为了迎接流量暴增,算力、存储都在从中心向边缘转移,这样的架构还可以提供更低的时延,从而带来全新的用户体验。

硬件加速

上周,腾讯发布了瑶池V500——一款基于ASIC的硬件加速卡,在动辄几十、上百兆码率的视频压力下,考虑到延时、能耗等方面,ASIC加速看上去是唯一的选择。当然,FPGA和GPU在特定的场景下依然不可或缺。不过,定制芯片看上去更像是巨头玩家的天下,普通玩家看懂趋势,跟上脚步就好。

沉浸体验

即所谓的AR/VR和沉浸式音频,这是未来真正改变视频体验的终极杀手。目前看,AR/VR在很多教育、培训场景下已经得到验证。正在向娱乐领域过渡,也许未来1-2年就会出现VR版的TikTok。

端到端低延迟

要实现云游戏、云桌面等应用,端到端的低延时是必须条件之一。要实现端到端低延时,将涉及网络架构升级,Codec,硬件加速,终端升级等。

最后,Call for speakers,LiveVideoStackCon 2021上海站正在招募出品人和讲师,欢迎加入到新一波技术升级中来,分享你的经验和洞察,请联系 [email protected],我们将在24小时内反馈。

你可能感兴趣的:(云存储,vr,人工智能,云计算)