先给大家讲网上段子。我们把大数据比作什么呢?高中生的初夜!问问大家,有谁的初夜是在高中的呢?凡是举手的人都有做大数据的潜力,现在每个人都在讨论大数据,就像高中生都在讨论性,你做过吗?没有人做过,每个人都以为自己做过,每个人都声称自己做成,这是一个很有意思的事情,用这个来比喻大数据非常的恰当。
而我们要把以前没有办法记录的数据都要记录下来,以前无法分析的数据都要去进行分析。比如大家的点击行为,所有的交互行为,所有行为的时长,都记录下来。之前采样的目的就是用最少的数据得到最多的信息。当我们可以获得海量数据的时候,它就没有什么意义了。数据处理技术已经发生了翻天覆地的改变,但我们的方法和思维却没有跟上这种改变。 但是在很多领域,从收集部分数据到收集尽可能多的数据的转变已经发生了。如果可能的话,我们会收集所有的数据,即“样本=总体”。
再给大家举一个例子,这是一个按钮平均触摸的时间分布,差不多是在44-112毫秒,每个按钮触摸时间是不一样的,大家觉得这个信息有用吗?也许没有什么用,但有一个研究机构表明,从一个用户接触的时间和面积的分布,我们可以推断用户按这个按钮时的情况。比如说一篇文章放了一个按钮,通过这个按钮的行为就知道有多少人是喜欢还是讨厌,像这样的记录很多人是之前没有想过的。
还有个美国的研究机构实验,通过手指来按压摄像头,就是把手机做在线的课程,手机的背后都有LED灯,把灯打开之后用手指遮挡住摄像头和灯可以记录你的心跳,甚至知道血液颜色的变化,间接获得心跳图。这样就可以知道学生是否在看这个图,是不是感兴趣还是开小差。
回到今日头条,对于阅读行为,我们以前会记录每篇文章在头条阅读的时间,而现在我们换一种记录方法去看某一页停了多少秒,又停留了多少秒,我们会把这个序列记录下来,可以推断这个用户是否读懂这个文章。这些行为的记录都是非常有价值的,在新的时代大家要去知道以前不能够记录的东西,没有用的东西,当这些都记录下来,未来某一天都会很有用的。
我们的分析的方法发生了变化,主要两方面因素,第一,产品应用越来越广泛了,有场景能够去用到这些数据;第二,我们分析数据的方法也越来越多。举例:搜索展示量与点击数是千亿量级的,在早期大家怎么样来用?就是要点击调权,如果说一个问题点击的次数很高就往前排,当分析方法没有那么进步的时候我们就用这种方法来做,这个方法有局限性,对于这一块有效,但是对于频次低的就没有效了。
现在随着神经网络算法发展,系统可以去训练100亿、甚至1000亿的用户浏览、点击行为数据,去主动学习用户查询与文章题目的内在关联,我们取得的收益是什么呢?整个团队34%的收益来自与这个项目,这是非常重大的改进,就是通过了计算方法的变化,使得我们能够去分析这么大规模的数据。
再举一个今日头条阅读时长变化的数据,我们为什么可以改进阅读时长呢?我们通过数据的分析,把用户的行为数据全部都记录下来了,我们知道用户点了什么内容,将用户的行为和行为特征进行组合,最后仅30天的数据就达到了1.5PB,这样的数据对今日头条来说需要大量计算资源才能够处理。
通过充分的对数据的使用提高了用户的使用时长,更多的数据、更多的分析方法和应用的领域,这些就构成了大数据时代。
数据越来越多,应用越来越多,硬件进步的趋势减慢,这就构成了大数据时代工程师面临的挑战。如何面对?
我的应对思路是,工程师要变成一个个全栈研发,要通过更加广泛的学习,成为全栈研发才是未来的解决之道。当局部可以大幅度的改进时,更细的分工才会显示出优势,否则只有全栈综合考量才能找到突破点。
在之前IT时代,有人去做CPU,有人去做UI的改进,大家的分工非常的细,比如说像以前做手机,从硬件,芯片,操作系统,交互,应用每一个都要去关注和打磨,这种很细的分工还能前进是因为每一块都有大幅提升空间。而现在CPU过一年就淘汰了,手机一年已经更新换代了,如果我们还是保持更细的分工不能够把握整体提高,这要求我们必须要不断学习才能够带来突破。
从CPU指令集到操作系统,从Hadoop到统计原理,从机器学习到产品应用,只有通过学习才能够找到突破点。下面举三个例子来详细说明。
第一个例子,先介绍背景:今日内容推荐很重要的一部分就是针对你可能感兴趣的候选集进行排序,这部分核心就是建模,将用户各种组合偏好记录下来。哪些keyword表达了该用户的特点。
那如何解决特征爆炸的问题。这个问题在机器学习领域解决思路有多种,比如通过Sample数据,1 可以L1正则,2 稀疏化特征,3 特征过滤,4 Hash,5 做16 bit的压缩。
我们来看第二个方案,内存的HASH表,当走过一遍数据,维护一个内容的表。每次去查一下,如果说出来6次了,现在第7次了,我们把超过了7次的全部都统计下来,其他的都扔掉,这里有一个就是规模问题,一个HASH的结构,一个Key要占用40 bytes,40 bytes会有指针消耗和对齐问题。如果我们有200台机器,单机需要600G的内存,现在很多的机器都不支持这个内存,那么怎么样来做?
(二)理论研究和实践的结合
特别是做在线学习,应用LR(Logistic Regression)是最广泛的。但是批量处理超大规模的数据集和在线数据流时就遇到了问题,离线机器学习方法在每次迭代计算的过程中,需要把全部的训练数据加载到内存中计算(计算全局梯度),传统batch算法中每次迭代对全体训练数据集进行计算(计算全局梯度),优点是精度和收敛还可以,缺点是无法有效处理大数据集(此时全局梯度计算代价太大),且没法应用于数据流做在线学习。
对于一个LR Model来讲,使用不同的学习速率、正则项系数导致收敛的效果是不同的。这当中初始的学习速率还是会带来很大的影响。除了Weight的参数之外,还有学习率、L1等的超参数。总之手工调参是非常困难的问题。
由于头条的训练样本很大,不同特征之间的频次相差非常大,有多大的?会相差7个数量级,有些频次是几千万次,而有的出现频次只有20、30次。所以针对不同类型的特征我们有不同的超参数。特征的类型我们是按照特定的规则来分有上百个,每个特征的类型都有正则率和特征参数,这样我们就几百个参数,这个是没有办法调整的,这个事情是不能够训练的,这是一个很痛苦的问题,有什么解决的方法呢?
在这一块我们是有创新的。大家想一下,超参数的本质是什么?就是要去寻找过拟合和训练不足之间的最佳的平衡点,我们训练是在一个训练集之中去做优化,在线上的集合之中去测试,而这两个数据集的分布是不同的,超参数优化主要用在自动搜索模型的参数,要做到在上线的情况下最优。我们把数据分为训练集验证集和测试集,我们在训练集之中去优化参数,在验证集中去优化超参数,目标是降低验证集的Loss(简单的在线梯度下降很难产生真正稀疏的解,稀疏性在机器学习中是很看重的事情,尤其我们做工程应用,稀疏的特征会大大减少predict时的内存和复杂度),这是更加的接近线上的分布,我们找到最优点,同时这个方法是服务做好的。
学习中的验证怎么调?
这个项目不仅仅有一个很好的实际效果,在算法的领域上也有一定的突破,我们之后也打算把这个整理一下,在期刊上去发一个Paper。
(三)算法和产品,UI的结合
第三个例子,算法和产品,UI的结合。头条不仅仅有文章还有视频,视频的低质内容的控制是很重要的,我们有很多的办法去改进这个问题,比如一些账号去评级,通过账号订阅的比例,效果都不好,之后我们用了一个很简单办法,效果会大幅度的提升,我们在视频播放的列表页放出了顶踩按钮,通过简单的加入顶踩的数据的统计,会对低质的打击效果明显提高。这就是一个很简单的,就是和产品结合,技术的方案就是要解决问题。你有简单的方法去解决问题这才是更有意义的创新。
就是做A/B测试,把实验对象随机分组,把一个或多个测试组的表现与对照组比较,进行测试。
怎么做A/B测试,第一步我们线上流量进行分流,正常用户还是走正常的流量,一部分流量我们要保证样本无偏,通过科学方法去划分出一些流量做实验,还要进行分组,分出对照组和实践组,对照组和线上的策略完全一样,实验组我们做一些小小的改变。
比如头条网页版的首页,新版加了一个链接,老版加了一个任务评论。我们看哪个好呢?通过A/B测试的方式,一部分人看到新版的结果,一部分是老版效果。事后统计分析,看到底哪个版本效果好。
大家印象中人比机器靠谱的,从大的面上来说,机器比人更靠谱,机器不求回报。在互联网公司,审核和评估投入这块肯定比工程师低很多,这就造成两个后果,第一个就是审核人员敬业或者他的能力上可能跟工程师相比,他会有一定的差距,这是客观存在的。因为我们的人力成本也比较低。
第二个就是他的流动性可能比较大,另外标准经常变来变去。我们一定要用机器去监控人的工作怎么样,需要有一个预警。这块我们需要引入一个双盲的交叉验证,帮助我们去看这些运营同学他们工作的稳定性怎么样,同时去激励不断提升自己的判断力,得到机器更好的评估。
最后在大数据领域还有哪些技术可以交叉呢?
比如说硬件的交叉,在新的硬件领域还有非常多创新的点。比如说现在的传感器的技术,比如说神经网络很多的做法是嵌入到芯片之中去的,分布式架构和机器学习算法的交叉,商业智能分析与新算法的交叉,这是一种用语言来画图做引擎,和我们做一些编译器和新的语言都有关系,有一些交叉。
这些交叉是诞生新想法非常重要的一部分。最重要的一个交叉就是什么呢?把技术和人们的需求的痛点相结合,进而产生更多的产品,所以每个创业者是更棒的创新家。在大数据的时代下,有太多的需要学习的,现在最难的就是找到优秀的工程师,这说明工程师的不可替代性和行业的繁荣,我想这就是工程师的时代也是在座每一个人的机会!
http://zhuanlan.zhihu.com/dataman/20447450
今日头条曹欢欢:3亿用户每天的头条各不一样,靠数据是怎么做到的?
今日头条刘思齐:数据是未来最重要的生产资料 营销透明化/个性化/场景化
“今日头条”怎么计算:“网络爬虫+相似矩阵”技术运作流程
End.