内容算法下用户流量暴增怎么做?我是这样操作的

对于算法分发很多人会有所误解这或许源自远观而缺乏了解才会觉得算法猛如虎。而当你走近了算法分发有了一定的了解之后可能会有重新的认知:算法如虎细嗅蔷薇。

一、算法分发知多少?

尽管算法分发中应用了各种高深的算法但其基础原理却是朴素的:更好地了解待推荐的内容更好地了解要推荐给的人才能更高效的完成内容与人之间的对接。

从这个角度来看:断物识人是一切推荐行为的起点。


对于断物识人我们可以将它理解为打标签的过程。标签是对高维事物的降维理解抽象出了事物更具有表意性、更为显著的特点。在不同的业务场景下我们会选择不同的标签进行使用来对内容和用户进行标注。

在内容画像层面以音乐为例最典型的有两种标签产出的方式:

专家系统:潘多拉(Pandora)的音乐基因工程(Music Genome Project)。在这项工程中歌曲体系被抽离出450个标签细化到如主唱性别、电吉他失真程度、背景和声类型等等。每一首歌曲都会被经由工作人员耗时30分钟左右有选择性标注一些标签并以从0到5的分值代表这一标签的表征程度。

UGC产出:在豆瓣给音乐打标签的活则从专家产出转为了普通网友贡献。群体的力量为豆瓣积累了大量具有语义表意性的标签。当然由于用户的多样性和编辑的开放性用户标签系统需要经过特定的清洗和归一化才能投入使用。

在用户画像层面可以分为静态和动态两部分。

用户画像中静态的部分比较好理解即你的设备信息、地理位置、注册信息等等这些可以被理解为是业务无关的信息。具体到业务场景中用户产生了更多的行为就生成了业务相关的动态信息即利用人的各种显式和隐式行为来对用户的偏好性进行的猜测。

以知乎读书会为例你的显式行为是点击、收听、评分、评论等等;隐形行为则是收听完成度、是否有拖拽快进、页面停留时长等等。

通常由于显式行为不够丰富我们往往需要使用隐式行为来扩充我们对于用户的理解。完播率、是否快进、详情页停留时长等指标都会被系统统计用来判断你是否真的喜欢某个人的讲解、喜欢某本书的内容。

在内容画像的部分可以看到一篇文章通过文本分析进行了一级和二级分类并抽取出文章内的关键字、实体词进一步的还会通过聚类的方式将这篇文章与其相似的内容聚成一个簇类。之所以会有聚类是因为专家系统的分类体系一定是对于变化不敏感的响应不及时的而聚类能够挖掘出更多内容的隐含信息。

在用户画像的部分:

“今日头条常用的用户标签包括用户感兴趣的类别和主题、关键词、来源、基于兴趣的用户聚类、各种垂直兴趣特征、以及性别、年龄、地点等信息。性别信息通过用户第三方社交账号登录得到。年龄信息通常由模型预测通过机型、阅读时间分布等预估。常驻地点来自用户授权访问位置信息在位置信息的基础上通过传统聚类的方法拿到常驻点。常驻点结合其他信息可以推测用户的工作地点、出差地点、旅游地点。这些用户标签非常有助于推荐。”

(摘录自今日头条推荐算法原理全文详解——曹欢欢博士)

内容画像和用户画像是一个相互影响的循环系统。

内容画像决定人的画像自然是最容易理解的。在音乐场景下你收听、收藏、评分了很多爵士类的音乐那么系统就会判定为你是一个喜欢爵士音乐的用户。在读书的场景下你阅读、收听了哪些书籍哪些书籍听完了、哪些书籍重复收听了很多遍都会影响系统中你的用户画像。

因此“你的选择决定你的画像”可以说丝毫不为过。

而反过来人的画像也会影响内容的画像。我们可以看作是基于用户的行为对内容做出的后验投票。在一个大体量的视频上传体系里我们基本放弃了依赖人工打标签的方式而转而利用用户的播放行为来试图猜测内容属于哪一类。

一个典型的Case:死神来了。看标题的文本信息最大概率就是一部电影但事实上观看这个视频的大面积是喜欢猎奇类视频的用户深挖内容才会知道这其实是一个车祸视频集锦。

二、协同过滤,应用群体智慧

如前所述标签是我们对事物的抽象理解那有没有一种方式能够让我们放弃标签呢?以人的行为来标记内容这就是协同过滤的基础思想。

举一个生活中的场景:初次为人父母“无证上岗”的新手爸妈们内心是激动而又惶恐的。打听成了他们育儿的重要法宝之一。“你家宝宝用的是什么沐浴液啊、你们有没有上什么早教班啊…”亲子群中无时无刻不在发生这样的讨论这样的讨论也构成大家后续消费决策的主要因素之一。

这种基于人和人之间的相互推荐固然是弱社交关系分发的一种形态但是促成大家有价值信息交换和购买转化的其实是人和人之间的相似点:为人父母、拥有相似的价值观和消费观。

把用户的消费行为作为特征以此进行用户相似性或物品相似性的计算进行信息的匹配这就是协同过滤(Collaborative Filtering)的基础思想。

协同推荐可以分为三个子类:

基于物品(Item-based)的协同

基于用户(User-based )的协同

基于模型(Model-based)的协同

1.基于用户的协同

即切合了上面的例子其基础思路分为两步:找到那些与你在某一方面口味相似的人群(比如你们都是新手爸妈倾向于同一种教育理念)将这一人群喜欢的新东西推荐给你。

2.基于物品的协同

其推荐的基础思路是:先确定你喜欢物品再找到与之相似的物品推荐给你。只是物品与物品间的相似度不是从内容属性的角度衡量的而是从用户反馈的角度来衡量的。使用大规模人群的喜好进行内容的推荐这就是在实际工程环境里各家公司应用的主流分发方式。

3.基于模型的协同

是应用用户的喜好信息来训练算法模型实时预测用户可能的点击率。比如在Netflix的系统中就将受限玻尔兹曼机(Restricted Boltzmann Machines, RBM)神经网络应用于协同过滤。将深度学习应用于基于模型的协同也成为了业界广泛使用的方式。

以协同的方式通过用户行为的聚类发现许多隐层的连接。

以读书会的场景为例我们邀请不同的名家来领读书籍。从领读人的角度更容易直观的将同一领读人的作品视作一个聚类比如马家辉老师领读的《对照记》、《老人与海》两本书通过人工预判的前置规则我们很容易将这两本领读书音频推荐给同一类用户。

但是通过协同的方式我们会发现喜欢马家辉老师领读作品的用户同时也会喜欢杨照老师领读的《刺杀骑士团长》一书。这种联系是很难通过标签信息发现的只有通过用户的行为选择才会建立联系提升内容和用户之间连接与匹配的效率。

三、从冷到热:内容和用户在分发中的生命周期

作为连接内容与人的推荐系统无时无刻不在面对着增量的问题:增量的用户增量的内容。

新的用户、新的内容对于推荐系统来说都是没有过往信息量积累的、是陌生的需要累积一定的曝光量和互动量(阅读、分享等)来收集基础数据。这个从0到1积累基础数据的过程就是冷启动其效果的好坏直接关系到用户端、作者端的满意度和留存率。

如果我们假设一篇新内容要经过100次阅读才能够得到相对可信的内容画像新用户同样需要完成100次阅读之后才能够建立起可用的用户画像。那么一个最直观的问题就是:怎么样达成这100次有效的阅读?这就是冷启动面临的问题。下面我们从内容和用户两个维度来分别论述。

在推荐系统中通过分析一篇内容的标题、关键字来确定要向哪个目标人群进行探索性展示借由探索性展示完成了从0到1的用户反馈积累过程。在这个冷启动过程中如果没能得到足够正面的用户反馈(点击行为和阅读体验)系统就会认为这篇内容是不受欢迎的为了控制负面影响就会逐步降低这篇内容的推荐量。

反之如果内容在冷启动过程中顺利找到了自己的目标人群收获了很高的点击率就有可能被推荐系统快速放大具有了成为爆款的可能。因此冷启动决定一篇内容命运的说法可以说丝毫不为过。

而对于用户冷启动推荐服务的是一个大目标:用户的留存率。

只有保证了用户留存的前提下才会考量推荐的兴趣探索效果如何是否在有限的展示里全面探索出了用户的偏好。对于慢热型的用户我们并不急于获悉他的方方面面而是以“留住用户”作为第一目的。

时下最火热的莫过于快手、抖音类的PUGC视频应用了。那么这些短视频内容的推荐方式是什么样的呢?

回归到丰富先验信息、依赖后验信息的角度来阐述整个通用的流程。

一个短视频应用里面大体上会有三类人:半职业或职业的生产者、工具的使用者、短视频的消费者。从消费性的角度来看大概率是第一类人生产第三类人消费。先验信息就是尽可能挖掘出第一类人生产内容的固有特征比如作者是谁、配的音乐是什么、是否有参与活动话题等等对于足够的头部生产者还可能会以运营介入的方式人工标注去完善先验信息。

客观上说小视频的先验信息是远小于文本内容的。从信息量的角度来看我们将其类比微博类的短文本内容或者全图片内容可能会更合适。先验信息的缺乏就会更依赖协同算法支撑下用户参与行为的后验信息的补充。

将一则小视频冷启动推荐给特定类别的用户来查看从用户角度去统计不同特征、不同聚类用户的有效播放从而以用户的行为去刻画小视频的特征。

比如时下很热的海草舞不同的生产者都会上传类似主题的视频哪个更好?在业务场景里真正值得依赖的一定是普通用户观看行为的投票才能选择出更值得扩散内容优化全局的效率。

四、三分天下?编辑、算法与社交

不夸张的说算法分发将是未来信息分发行业的标准配置。

为什么这么说?因为算法是个筐什么都能往里装。

在内容展现和推荐的过程当中可以参考下述公式:

算法分发权重=编辑分发权重 + 社交分发权重 + 各种算法产出权重

将任意一个权重设置为1其他部分设置为0算法分发系统就会变成一个标准的编辑分发系统或者是社交分发系统。也就是说算法分发的基线就是编辑分发或社交分发。从这个角度来看只要算法应用的不太差基本上引入算法分发一定是正向。因为它在有限的货架里围绕用户展示了无限的货品。

在业务层面我们通常会复合型使用三种分发在不同的环节应用不同的因素才达到最好的效果。

以知乎读书会为例我们将其划分为:内容生产、用户触达和反馈改进三个部分。

在内容生产中为了保证调性一定是需要引入编辑专家去选人、选书的。选择的书是否有价值选择的人是否是行业专家而非职业的拆书人都是体现产品价值观判断的事情。

进入触达环节人工干预的作用就会相对弱化。

举一个例子:运营一定会有今日推荐的需求推荐给用户今日读书会上新了什么大咖领读的书籍。比如一本物理学的书籍由一位物理学大咖进行解读。从编辑的角度领读人是大咖书是经典编辑权重一定非常高。

这听上去似乎很合理但当你进入用户的场景时就发现有点差异:首先用户不是每天都来的。如果他一周来一次在他没来的这一周内同样有文学、互联网、艺术等专业人士的领读你该给他的是今日推荐还是本周推荐呢?进一步考虑到用户偏好问题。你是应该把物理学大咖的内容强加给他还是推荐给他一个朋友们最近都好评的一本领读书(社交分发)又或者是他自己已经标注了“想读”的一本艺术类书籍的解读呢?

当我们收集到了足够多用户数据的时候又可以反过来影响内容的二次迭代编辑的作用又凸显了出来结合数据的反馈来对内容进行调整:内容的播放完成率为什么低?是稿件问题还是领读人语音的问题是否需要重新录制等等。

五、算法的价值观

算法有没有价值观呢?算法没有价值观算法背后的人却是有价值观的。

因为我们优化推荐系统一定会有一个数值目标这个数值目标的合理性决定了整个推荐系统的合理性。

单独以点击为优化目标一定会导致标题党泛滥;点击加时长目标能够一定程度抑制标题党的产生但是也有可能导致用户多样性的丧失。在这里举两个内容消费的场景我们可以通过这两个场景一窥各个内容分发产品的调性所在。

1.新用户冷启动:

大家可以以新用户的身份去尝试各种内容消费服务。比较之下你就知道各家的价值观怎样的了。

因为新用户是通过不同渠道获取的你获取到的是怎样的用户你就会推荐怎样的内容;进一步的基于马斯洛需求模型越底层的内容越有更广泛的受众。这就是为什么很多小视频应用打开来之后全都是白衣校花大长腿的原因了人性尔。

2.推荐多样性:

多样性是另一个评估分发产品调性好坏的所在。丧失多样性深挖用户的局部兴趣点一定是短期收益最大化的。

比如我喜欢看科比那么你把科比的比赛视频推给我可以让我刷到深夜两点;但是从一个产品的长线来看我们需要更长久的留住用户而不是短期让用户沉迷。在短期时长和长期留存中就依赖于产品设计者的价值观判断了。

六、不同平台下的自媒体生态

对于平台来说创作者是什么?

如果把平台比作一个商场的话不同的平台会有不同的选择最典型的两种类型莫过于:自营 V.S 第三方运营。

一种情况下整个商场全部是直营的店铺。在这样的平台下每个货架都是商场自营所有的创作者对于商场而言都只是供货商。

另一种情况下商场只提供位置所有交得起入场费的店铺都可以入驻。在这样的平台下每个货架都是创作者自己运营的。

直营商场的好处当然是体验可控、甚至于能够在某个特定垂类人群身上做到近乎可量化范围内的极致。由于其收取的是商品流通中的利润所以在短期内可以攫取巨大的红利并用这些利润去给商场自身打广告做新客获取。

但这样做的坏处也很显然:就在于供货商的角度缺乏灵动性只作为供货商的创作者由于缺乏足够的利润激励很难生长出全新的品牌。

开放给第三方运营的商场其好处当然是供货商的灵活性和多样性商场赚取的是房租而非商品流通过程的利润。一个常见的问题是:这种完全开放给第三方运营的商场是否会用户体验崩塌比如会有各种在商场入口发小广告的以各种图谋短线的方式来吸收商场的流量。这就是局部失控与全局可控的关系。

在国内全部直营的商场比比皆是;近乎完全开放给第三方运营的大商场则恐怕只有微信了吧。在所有平台都在告诉你什么是对的时候只有微信很克制地告诉你什么是错的。

七、数据驱动自媒体迭代

站在自媒体的角度又该如何面对平台?如何应用数据驱动的方式更加目标导向的面对不同平台呢?

首先自媒体面临的问题是平台选择。

由于不同的平台有不同的分发规模和不同的发展阶段所以更应该选择适合自己品牌调性的平台选择符合自己长线商业化变现角度的平台。要区分清楚哪些平台是叫好不叫座、哪些平台是叫座不叫好。

如果做电商导向的自媒体那么基本上微博微信是必选项。考虑到目前各个平台相对封闭不提倡向微博微信导流那么其在其他平台可能更多的在于曝光量和品牌建设的贡献而不会对电商的销售转化有太大的贡献。

但对于承接品牌广告的自媒体而言其利润更多的和内容的传播量有关在传播量导向的角度来看就应该更多的选择和自己品牌调性相符的、哪怕是一些垂直类的内容分发网站。通过汇集全网各平台的流量来实现自己对广告主的全网阅读量(播放量)的承诺。

因为每个平台的投入都需要牵涉到运营人力所以如果一个平台的投入产出比不能够达到预期就应该主动止损避免进一步的资源投入。

在自媒体确定了自己选择的平台之后就需要深究不同平台的分发特点来进行针对性的运营从而提升自己在相应平台的曝光量。常见的三种平台:编辑分发、订阅分发和算法分发平台。

1.对于编辑分发平台

最快速的方法一定是维系好和平台的关系。因为在这样的平台上其推荐位置都是人工分配的更好的编辑关系能够保证自媒体有更好的流量曝光。在编辑分发的平台上时不时的会有相应的官方活动、积极地配合官方导向就能从流量倾斜政策中获取红利。

2.对于订阅分发平台

做粉丝做垂直品类粉丝是不二法门。借由微信其实大家能够看到一些常见的诱导分享的手段。由于微信是一个规定行业下限而非设定上限的开放式环境所以在这样的平台上进行运营首先需要保证自己有足够高的敏感度对于一些新的传播形态可以及时跟进从而最大化的获取时间差的红利。

比如最近的微信小游戏在前两周铺天盖地的通过微信群分享获得拉新机会;而最近几日这条通路就完全被官方封禁了。

3.对于算法分发平台

尽管平台关系维护和粉丝数积累都需要但是最需要投入的还是对于内容的包装。因为你的内容不仅仅要抓住人的眼球同时也要能够对机器算法的胃口通过研究过往一段时间的平台热门关键词能够给内容的标题封面包装提供一些借鉴。

在我看来运营的非常好的一个自媒体品牌非二更莫属细细观察其在不同的平台上都有不同的运营策略。比如在头条上的分发二更就全面的在使用双标题、双封面的方式进行自己的内容包装。一些视频内容能够在非常短的时间内就获得了上百万的曝光量。

不同平台上的不同运营方式本质上还是一个数据驱动目标导向的过程以下进行更细粒度的拆解。

他山之石可以攻玉首先和大家介绍的是在国外将数据分析指导内容生产做的非常极致的BuzzFeed。

员工总数逾千人拥有全球新闻团队、自家视频制作工作室、尖端数据运算中心和内部创意广告机构每月全网超过50亿次阅读——这就是BuzzFeed怎么看都是一个庞大的媒体集团。

然而当我们深入了解BuzzFeed的工作流程后就会发现:与其说它是一家媒体公司不如说它是一家科技公司。

“数据驱动内容创作”

这是BuzzFeed给自己贴上的标签。

在这家公司的内容创作和分发过程中反馈闭环(Feedback Loop)是出现频次最高的术语:通过将市场环境和读者反馈数据尽可能的量化和结构化及时反馈给运营人员、内容编辑从而构成了辅助创作的一个闭环。

由于很早就树立了“将内容分发到用户常驻的平台而非吸引用户到自己的平台看内容”的思路YouTube、FacebookTwitter、Vine等一众平台都成为了BuzzFeed的战场。为了更好的理解用户反馈BuzzFeed追踪收集并汇总了各个平台上的阅读传播和互动数据。比起阅读量、分享量这些结果指标其更关心内容分发和传播的过程。

以下图为例:如果只看终态数据那么报表展示给你的无非是一篇内容从不同的平台渠道上获取了多少流量而已(下图左)。但是深究下来这些流量是如何来的呢?是通过Facebook或Twitter上的分享还是通过邮件的传播?哪些节点带来了更大的辐射量和扩散量?只有深入分析传播路径才能给出这个问题的答案(下图右)。

不止于结果 BuzzFeed开始探究一篇内容的传播轨迹他们开了一套名为Pound(Process for Optimizing and Understanding Network Diffusion)的系统通过给同一页面的不同分享追加不同参数的方式来追溯内容在网络上的传播过程。

通过这套系统人们意识到:传播并不是一棵简单的传播树而是一片密集的传播森林。

每一次分享都构成了一棵新树如果一个人的社交好友很多那么这个节点的一度关系触达就会很广;如果内容的质量一般没有引发进一步的传播那么就会止步为一棵低矮的树;如果内容引发了大量的传播就会变为一个繁茂的大树。

由于社交传播对于内容的影响力贡献巨大 BuzzFeed在衡量内容价值时会更看重社交分享所带来的阅读量并以名为“病毒传播提升系数(Viral Lift)”的指标来衡量这一过程。

对于粉丝已经超过百万、内容阅读篇篇10W+的自媒体大号来说这一衡量指标的制定不难理解:如果一篇内容的阅读构成主要来自于自己的粉丝那么就意味着粉丝们更有可能是基于惯性打开的但是由于内容并没有触及到它们的兴奋点、没能引发认同从而失去了进一步扩散传播的可能也失去了触达更多潜在粉丝的机会。

对于BuzzFeed而言在相近的总阅读量下一篇“病毒传播提升系数”更高的内容因为收获了更多的社交传播而变得更有价值。有了技术追溯的支持内容团队才能够总结出不同平台之上的内容偏好和病毒传播模式。

人们往往会夸大BuzzFeed的内容三把斧“清单体、短视频和小测验”却忽视了在这些内容背后更深层次的数据支持。

具体到我们日常的内容阅读分析和粉丝分析过程当中有哪些可以供分析注意的数据?

对内容分析来看可以分为一次打开和打开后的体验。

一次打开是指不依赖于社交传播和搜索传播所带来的阅读量。对于微博微信等粉丝分发平台是指粉丝带来的阅读量;对于头条、快报等推荐分发平台是指经由推荐带来的应用内阅读量。

影响内容一次打开率最直接的因素有两个:活跃粉丝量和内容包装。

无论是粉丝分发平台还是推荐分发平台活跃粉丝量都会影响内容展示的基本盘只是传导系数不太一样罢了;对于粉丝分发的平台你有多少活跃粉丝就意味着有相应比例的基础展示量;对于非粉丝分发的平台你的活跃粉丝量会被视作你在平台上的贡献程度和受众情况从而影响分发权重。同样的一篇内容10万活跃粉丝的账号发布一定比1万活跃粉丝的账号发布会获得更大的基础展示量。

内容包装影响的是从展示量到阅读量的转化过程更好的标题和封面图就像是精致的产品包装一样有助于更好的促成转化。比如在头条号平台上就支持了一个非常酷的双标题双封面功能能够给创作者对内容不同包装的机会。

对于标题我习惯于引用咪蒙的观点:

“不能在一秒钟看明白的标题不适合传播不是读者理解不了而是他只能给咱们一秒钟。”

在咪蒙的工作方式中她会把当天写好的内容发出来交于自媒体小组的员工开始取标题。15-20分钟内每人至少取5个标题。这样每一篇内容背后都有近100个标题!咪蒙随后会从中挑出5-6个标题放到3个由用户顾问群里投票(每个顾问群都有人负责统计票数)。 咪蒙会参考最终的投票结果决定用哪一个标题。这种方式其实就构建了一个最朴素的AB系统来验证标题对于内容一次打开率的影响。

为了便于比较我们通常计算一次打开率而非打开量。

对于粉丝分发平台:

一次打开率=阅读量/粉丝量

对于推荐分发平台:

一次打开率=应用内阅读量/推荐量

一次打开率对于不同分发模式的平台有不同的意义:

在粉丝分发的平台上一次打开率能比阅读量更好地衡量自媒体账号的价值。为了保证更高的一次打开率需要更科学地获取精准粉丝、重视粉丝群体的互动维护使得自身始终能够保持较高的粉丝触达率。

对于图文来说这个指标是平均阅读进度和阅读速度;对于视频来说是播放进度和播放时长(因为用户会有快进的行为所以100%的播放进度并不意味着100%的播放时长)。平均消费比例越高代表用户的认可度越高、消费体验越好。

除了内容消费比例指标以外内容是否引发了读者互动也是一个常见的考察角度如评论、点赞、收藏、转发等这些指标的横向对比通常用于组织内部考核不同编辑的创作能力。

其中个人建议需要额外关注的是评论和转发两个指标:

评论扩展了内容的深度更多的用户评论给正文提供了不同的视角分析和信息补充可以有效的引发围观用户的阅读兴趣提升用户在内容页的整体停留时长。促进评论的提升算是有一些技巧性的部分:选题有冲突性或者有代入感在正文中留有悬念主动引起讨论、投票在评论区中带节奏等等都是行之有效的方式。

转发扩展了内容的广度更多的转发能够带来更多面向潜在受众的曝光这一点对于以粉丝分发为主要模式的系统尤甚。对于转发指标我们可以套用BuzzFeed的病毒传播系数的计算方式:Viral Lift = 1 + 传播阅读量 / 一次阅读量。

八、粉丝增长分析

对于自媒体而言虚高的粉丝数除了忽悠投资人和广告主以外对自身成长是毫无意义的。想要可持续发展只有精准的粉丝才有价值。那什么是精准的粉丝?我想应该是指能够给自媒体带来变现价值的粉丝。

粉丝增长分析就是围绕有变现价值粉丝算的一笔账:如果一个粉丝能给自媒体带来5块的净利润那么花低于5元的成本来购买这个粉丝就是划算的。

首先引入三个概念——LTV、CAC和ROI

LTV(Life Time Value):生命周期总价值。一个粉丝从关注你的那一天开始到取关或者脱离平台为止能够带来的收益。通常按渠道来计算如果某个渠道或某个平台的用户不精准、付费意愿差那么这个渠道的用户LTV就相对较低。

CAC(Customer Acquisition Cost):用户获取成本。同样跟渠道有关自媒体需要持续的发现低价、优质的渠道抢占红利期。比如2015年初微信广点通渠道的公众号涨粉单个用户获取成本只有1-2块钱。

ROI(Return On Investment):投资回报率。计算公式为(收入-成本)/成本。应用于粉丝增长场景就是(LTV-CAC)/CAC衡量的是:你从一个粉丝身上挣到的钱是否能够覆盖获取这个粉丝的成本。

通常应该做ROI>1的事情这样才能够保证业务的可持续发展。后续也都围绕这个角度展开。

首先现身说法举一个亲身犯下的“人傻钱多”的蠢事:

15年初微信朋友圈集赞的路数还很火热我们也不能免俗搞了三场集赞有礼的活动。三场集赞有礼的活动表面上看起来一面光鲜各种指标在活动日都有显著的提升。但是兴奋过去之后的分析却让人笑不出来了。三次活动中发起活动的老用户重叠度越来越高带来的新用户越来越少同时新用户的次日留存情况也越来越差。

于是我们开始反思用户为什么要参加集赞有礼的互动?唯利尔。

老用户发起活动他所带来的新用户无非是看一眼品牌广告帮朋友支持一下。如果实物奖品价值还不错那么这个新用户也会发起但目的在于奖品而非公众号。此外设计过高的门槛使得有的用户不乐意参与有的用户则自建了群开始互相点赞达不到拉新的作用。

想要提升用户增长的ROI就必须降低新用户中非精准用户的比例从而拉升渠道用户的LTV降低用户获取成本CAC。

由此入手我们优化了转发集赞拉新的方式:

新一期集赞活动的礼品是凯叔西游记第二部的部分章节收听权每个用户只需要拉5个用户就能获得。因为是虚拟产品CAC得到了显著降低。而儿童故事音频跟微信账号捆绑只能自用用户如果不是真有需求就绝不会参与活动从而提升了新增用户的精准程度。在后续的此类活动中我们都有意识的对礼品的形态进行了控制:实物礼品用于鼓励已有的活跃老粉丝虚拟礼品用于激活和拉新。

运营微博、微信这样的平台我们很容易沉迷于追求短期粉丝数字的飙涨而举办各种活动。某些活动拉新从CAC的角度看或许是划算的但深究其所带来的真实活跃粉丝就往往会发现ROI远远小于1充其量只能算是一次展示广告曝光做了一笔又一笔的蚀本生意。

想要算清楚用户的ROI有赖于用户身份的识别和渠道的追溯。在这一点上微博和微信的基础建设比较完善。

以微信为例基于平台提供的二维码我们可以追溯不同用户的来源并标识就像是安卓应用下载对于不同的应用市场打不同的渠道包一样。进而通过平台提供的外链功能、私信功能来识别用户的活跃情况。

对于付费增粉渠道每隔一段时间暂停一些比较渠道暂停前后自己粉丝量的增长情况和粉丝阅读占比、线上活动粉丝参与量情况建立起对付费渠道更清醒的了解。

通过数据分析的方式能够让我们更加清醒的审视内容创作的消费性好坏粉丝积累的性价比高低从而以更经济的方式提升自己的增长速度。此次,就分享到这,后续还有更多有价值内容请持续关注。


(说明:本文来源于人人都是产品经理,由小编整理发布,若有侵权,删。)

你可能感兴趣的:(内容算法下用户流量暴增怎么做?我是这样操作的)