2年100倍增长背后:米连客户服务升级的思考

--------------------------------------------------- 前言

2018到2020年正值视频婚恋社交行业的风口期,米连仅在RTC部分费用支持从50W飙升到5000W。客户在与众多竞品的博弈中如履薄冰,必须持续创新才得以保住头部位置。RTC质量的稳定性也早已成为客户的生命线,因此客户对实时音视频、旁路推流质量稳定性、线上问题快速分析定位、用户体验优化等方面对服务提出了更高的要求。伴随客户的成长,风雨同舟我们一路走来,在帮助客户成功的路上我也感到肩上重担。作为接口人的我根据客户不同阶段的特点也在积极自我调整,更有针对性地为客户最有效的帮助。但是回头反思仍有诸多不完美之处。特此做出小结,与各位汇报的同时也与客户共勉。

--------------------------------------------------- 第一阶段:探索

2018年11月13日入职声网后第一次拜访客户,我的第一印象是:一间拥挤二十多人的三居室。在不足 9㎡ 的单间中跟CTO讨论测试音视频参数。当时伊对APP功能简单设计朴素,场景只有红娘撮合的三人视频相亲。在田间地头、卧室客厅、站卧坐躺…没有明亮的直播间、专业的声卡、标准的话术。少一分浮夸,多一分真实。

2年100倍增长背后:米连客户服务升级的思考_第1张图片

 

三人视频相亲 & 七人视频娱乐房

 

2年100倍增长背后:米连客户服务升级的思考_第2张图片

三人视频相亲场景音视频参数调优

 

 

【探索阶段特点】

  • 设备性能差但体验不能差:伊对最终用户大多分布在三四线城市,处于频繁试新阶段,总体音视频用量不大,最终用户大多使用千元Android机,网络质量总体较差,用户也在各种场景难以规范。所以米连研发团队非常需要借助AgoraSDK的广泛适配性、SD-RTN的弱网对抗等功能最大程度优化用户体验,帮助客户在最艰难的时期赢得客户的

 

2年100倍增长背后:米连客户服务升级的思考_第3张图片

三四线城市用户Android机型分布

 

  • 人手不足但必须三头六臂:客户团队从"电商"、"直播"到"线上相亲"经过多次转型调整。人手不足就加班加点、人不专业就多做调研,在最艰难的环境中却没有放弃对技术以及产品体验的要求。CTO常常亲自上阵,既要完成代码编写、测试、发版;又要做广告推广、市场调研确认产品后续发展路线;还要处理线上各种技术和非技术问题。

【服务姿势】

  • 让客户体验最新的音视频技术:推荐客户紧跟最新版本SDK,声网每次发版客户也会第一时间升级。一方面客户享受最前沿的音视频技术,提升最终用户的体验;另一方面收集客户使用新版本的问题和需求,持续推动内部优化提升SDK的稳定性、易用性。
  • 以用户视角给出产品和技术建议:由于客户测试发版尚未建立完整的流程,线上容易出现一些未被发现或者未被反馈的问题。我会利用业余时间体验伊对APP,站在普通用户的视角,记录反馈遇到的问题以及音视频、UI逻辑方面的优化建议,帮助客户优化音视频体验、交互流程体验、业务流程体验。
  • 线上调试案例并沉淀通用问题排查方案:泛娱乐客户一般都音视频质量敏感度不是很高,偶现的卡顿问题一般不会反馈,所以针对反馈的问题,我会格外重视并争取在第一时间解决。记得客户初期最常见的问题就是回声问题,面对回声运维人员以及最终用户通常手足无措。我第一次收到问题反馈是在清晨的地铁上,于是第一时间跟红娘远程,并定位产生回声的原因以及规避方案。并且将这一类问题形成最佳实践,赋能给客户运维团队并形成红娘音视频设备及常见问题指导规范。后续客户基本没有再反馈过回声问题,基本实现95%回声问题在一线消化,大大提高客户运维团队成就感。

 

2年100倍增长背后:米连客户服务升级的思考_第4张图片

旁路推流架构图及问题调查手段

 

2年100倍增长背后:米连客户服务升级的思考_第5张图片

 回声问题排查思路及处理方案

 

 

--------------------------------------------------- 第二阶段:匀高速增长

2019年6月随着蓝驰创投千万级A轮投资以及视频婚恋社交市场的井喷,大量竞争对手涌入这片蓝海,逼迫米连不得不再加速…

【匀高速增长阶段特点】

  • 稳定是生命线:由于强劲的宣传力度,客户用量保持持续高速增长:每月PCC和PCU同比持续翻倍。客户当时的要求是:服务端所有资源每月底都需按照上个月峰值用量300%进行扩容,务必确保上量期间用户体验不掉线。
  • 新场景快速迭代:随着竞争的愈演愈烈,获客成本在持续升高,因此提高客户留存率变得愈发重要。客户的市场战略也从仅提供"相亲服务"向集"社交"、“娱乐”多功能与一体的线上青年社区转型。因此需要以最小成本、最快速度构建新场景,试探用户以及市场的接收度。

【服务姿势】

  • 稳妥的升级策略:不再推荐最新版本给客户,而且推荐经过较多客户验证过的版本。并且全程深度配合客户测试过程,及时处理测试过程中遇到的问题,最大程度降低版本迭代对业务稳定性的影响。
  • 结合多产品线综合提升客户体验:客户服务端监控、CDN观众拉流失败应急方案都变成棘手的问题。为了有效帮助客户优化体验,我结合声网多产品线能力持续帮助客户提升对客户数据的收集能力以及异常场景的应对能力。同时最大程度提高客户黏性,构建技术壁垒。
    • 频道内观众端:增加秒开体验,作为补偿策略增加弱网用户在CDN拉流失败时持续观看直播的成功率;
    • 服务端回调:帮助客户服务端能够监控频道内主播加入频道、离开频道事件,并进行全网广播通知和推送;
    • 流消息:作为可靠消息备用通道,补强控制指令传输的实时性;
  • 内部推动质量透明的同时加强人工告警:在客户用量疯狂增长的阶段,体验问题也如潮水般涌来。为了降低客户运维团队压力,帮助客户快速识别最终用户反馈的问题是区域问题还是个例问题,我帮助客户制定了一系列的保障措施:
    • 短期方案:增加现场保障,确保微信群第一时间响应。帮助客户判断上报问题的类型,赋能客户运维团队通过水晶球快速定位简单问题,复杂问题记录必要信息加快处理效率;
    • 中期方案:在质量透明项目落地前,旁路推流、SD-RTN质量抖动或者后台变更在及时向客户通告,将影响降到最低;
    • 长期方案:持续推动声网旁路推流产品团队落地质量透明项目,持续细化客户监控需求,持续将声网监控指标与客户监控指标对齐降低双方沟通成本。
  • 快速确认新场景方案:与米连产品和技术负责人直接讨论新场景需求,结合当前产品组合,帮助客户以最低成本、最小投入、最短时间上线新场景。

 

2年100倍增长背后:米连客户服务升级的思考_第6张图片

 

语音KTV场景通过流消息实现歌词同步的方案

 

 

--------------------------------------------------- 第三阶段:精细化运营

【精细化运营阶段特点】

  • 伴随上量带来问题复杂化:随着PCU、PCC长期稳定在五位数以上,普通问题已经可以快速定位,复杂问题开始增加。但是相对个例问题,客户更加关注全局质量、突发异动以及潜在的隐性问题。
  • 追求高性价比的服务体验:随着竞品的虎视眈眈以及财务压力,客户期望可以享受到性价比最高的实时音视频服务。

【服务姿势】

  • 用户行为大数据挖掘为客户决策提供数据支撑:2020年6月客户频道内观众端数量提高了600%,但是服务端监控发现视频总体卡顿率也从1.3%升高了三倍。与数据团队、产品团队深度合作,从多维度进行问题分析:
    • 使用4G网络的主播和频道内观众:视频卡顿率周期性波动。国内其他泛娱乐行业用户也有同样规律,海外其他泛娱乐行业用户没有这样的规律;
    • 使用WIFI网络的主播和频道内观众:视频卡顿率没有周期性波动。国内其他泛娱乐行业用户也没有周期性波动,海外其他泛娱乐行业用户也没有周期性波动;
    • 2020年6月频道内观众端分钟数对比5月提高6倍,HD频道内观众端单日新增150W分钟,HD观众的下行带宽达到1.8Mbps比SD观众下行带宽增加3倍;
    • 2020年6月主播SD分钟数降低50%,降低的分钟数变成主播HD分钟数,单日主播HD分钟数增加500W分钟,HD主播下行带宽达到1.2Mbps比SD主播下行带宽增加3倍。

 

2年100倍增长背后:米连客户服务升级的思考_第7张图片

2020年4月-8月米连WIFI/4G用户视频卡顿率统计

 

2年100倍增长背后:米连客户服务升级的思考_第8张图片

2020年4月-8月米连主播/观众分钟数统计

 

2年100倍增长背后:米连客户服务升级的思考_第9张图片

米连最终用户地域分布统计

 

2年100倍增长背后:米连客户服务升级的思考_第10张图片

国内某大型泛娱乐行业客户4G用户视频卡顿率呈周期性波动

 

2年100倍增长背后:米连客户服务升级的思考_第11张图片

海外某大型泛娱乐行业客户4G用户视频卡顿率没有周期性波动

所以初步结论是:2020年6月11日开始总体视频卡顿率升高的原因是:频道内观众端用量增加6倍,并且HD主播和频道内观众单日增加650W分钟。其中使用4G网络的主播和频道内观众端用户视频卡顿率升高并随日期周期性波动。导致总体视频卡顿率升高并随日期周期性波动。4G用户卡顿率周期性变化的原因通过抽样分析是用户包月流量用完,导致运营商限速在1Mbps,导致卡顿率增加。

后续优化目标&方案:

  1. 与数据团队深度合作,持续探索是否还有其他维度可以分析下卡顿率升高的原因,重点对比CDN观众端拉流视频卡顿率是否有同样的波动,并与后台评估MCU方案对类似问题有多大的缓解和帮助;
  2. 以目前卡顿率为参照,后续持续优化卡顿率,争取将全网视频卡顿率降低到1%以内甚至更低;
  3. 逐渐落地降低卡顿率的方案:
  • 短期方案:弱网Fallback订阅小流
  • 中期方案:NASA二期打磨后推荐客户升级SDK版本

你可能感兴趣的:(行业深度,音视频,RTC)