当Web 2.0概念兴起时,很多人觉得编辑已死,纸媒也只能烧纸。慢慢地人们发现,2.0 时代带来了严重的信息过载,这种信息过载是不能通过机器来解决的。因此,当下我们的阅读应该在社会化和个性化的同时加强传统的编辑化,而非一味的依赖 Web 2.0/3.0,依赖算法。
这是一个尴尬的时代,有人说。我们正在由信息爆炸的 Web2.0 走向信息收敛的 Web3.0 时代,在这一时代,整个互联网的信息仍然在快速增长,但是对于个人而言,获取所需的信息会更快速准确,即对个体而言,信息则是收敛的。同时,在这个时代,我们阅读的目光也因为移动设备大肆出现,逐渐由传统电脑屏幕转向了移动设备屏幕上,那么在这个时候我们究竟需要什么样的阅读呢?
如果说 Web1.0 是一个内容匮乏的时代的话(需要编辑或者专业人士来建设互联网内容),那么 Web2.0 就是一个信息爆炸的时代,各种 UGC 形式的涌现让所有人都成为了内容的创造者,专业编辑逐渐被边缘化。而随着互联网的信息的飞速膨胀,在标榜着多人贡献的 Web2.0 时代,另一个问题出现了:信息过多导致了信息重复和信息过载。所谓的过载,其实是无法筛选信息而造成有价值的信息减少,接收到的大多信息都是无意义或价值低的。这一点在以前的 Web1.0 是几乎不存在的,因为除了信息量比较少外,在 Web1.0 时代,由编辑或专业人士审核把关的内容其实是一层过滤,信息的生产和流通遵循着“先过滤后发布”原则, 而在 Web2.0 时代,确是“先发布后过滤”,而这个过滤到机制从从最早的 RSS 订阅模式到稍后的 Digg 等根据热度和时间进行的聚合网站,逐渐发展到现在的以社会化推荐和个性化推荐为主的模式,它们都一直没有很好的消除掉信息过载的问题。
以 Flipboard 为代表,它通过分析用户在社交网络,包括像 Facebook、人人网等社交网站以及 Twitter、新浪微博等微博服务等上面的好友的信息作为信息源,直接抓取某些链接背后的文章或图片后重新编整组织,再以新版面呈现出来。因为 SNS 是基于亲朋好友和自己可能会有共同兴趣或共同关注的好友,因此这些内容的相关度会较高,也更贴近个人兴趣。
以 Zite 为代表,它通过分析用户对不同来源/不同主题的信息进行的收藏/转发/忽略/屏蔽等行为数据来计算出用户的喜好, 对用户的社交关注/新闻订阅等初次筛选的数据进行再次筛选, 为用户推荐相关度更高的信息。
基于社交网络的推荐是不靠谱的,除了好友数量不会太多造成信息面较窄外,将社交网络信息流作为阅读信息源从本质上也是值得商榷的。因为很多人其实已经被 SNS 这个群体性的平台所腐蚀,就像勒庞的《乌合之众》所说的那样,”群体不善推理,却急于行动”,个人在融入群体性的微博后情感和思想会转向群体所有的公共方向,更加容易冲动、易变、轻信、急躁、偏执、专横、感性、极端化、不允许怀疑和不确定存在,好比生物的低等状态。这与组成群体的个体素质无关,这时候其决定作用的是本能和情感,是一种“无意识”的层面,而不是理性。
因此很多情况下,你所看到的信息都是被左右过的,尤其以微博为甚的 SNS 大染缸,很多信息进去后经过在被暗示和放大后的各种评论、转发、修改、再转发后会变得肢解、曲解,甚至会因为缺失和断章取义变成谣言。任何力量的过度放大,都会模糊背后的真实,因此我们需要更多冷静、理智和客观的信息,而不是这种无法保证被左右过的信息源。
或者你会说,我们还有算法,联想到未来可能会到来的基于语义搜索、数据挖掘和智能匹配的 Web3.0 完全个性化时代,很多人也都看好它。诚然现在和未来的趋势都是以算法推荐为主的,但是在当下,算法并不是万能的。例如国内以优质算法著称的豆瓣,绝大部分上充当推荐角色的还是你的友邻,而不是经常不靠谱的豆瓣猜。当下算法还不能完全承担起推荐的重任,毕竟算法是死的,很多时候一点点意外就会造成严重的匹配偏移。例如现在的阅读应用都是需要个人用里面提供的“源”或自定义的“源”来聚合后才能形成个性化定制的信息“流”,在这种以算法为主的筛选过程,单个及多个应用内的重复“源”让定制的难度增大,需要磨合的时间变长,一旦你的兴趣产生一点变化,这个偶然的打断会使得过滤机制出现纰漏,因为算法还没有智能到可以识别一些例外。
其实在现在,几乎所有的阅读应用中关于社会化阅读和个性化阅读两者都兼有,像鲜果、Zaker、网易阅读等,没有太多的差异化。诚然,这些应用中完备的使用偏好设置,可以给用户带来个人定制化的良好体验。但是它依旧会造成信息重复、降低信息质量、产生回音室效应并使得意外发现的内容减少。
在当下的阅读应用里除了社会化和个性化阅读模式外,还包含了 Google Reader RSS 阅读 和 Read it Later(Pocket)稍后阅读等功能,部分甚至把传统阅读应用的书城模式都添加了进来。一锅烩的后果是造成了很多信息重复,此外很多频道的内容也是各种重复,这种重复不仅是浪费了时间和精力,它还会造成一定程度上的信息焦虑烦躁等。
与 Web2.0 网站类似,很多阅读应用在抓技术,抓产品,抓市场的同时却忽略了内容本身,或者说是保证了内容数量,忽视了内容质量。要知道真正吸引用户永远是 80-20 准则里的那 20% 的内容。无论是信息还是科技,我们所要永远都是那一小撮高品质的东西,而不是沉浸在全盘的大杂烩中。
信息过载的究其原因是过滤机制不合理,那么基于社会化分享和个性化定制的过滤机制能否消除信息过载呢?不能,现在的你随便打开一个应用肯定还是满眼的频道,很多关键字聚合也是从一些频道里直接机器全盘抓取的,至于像数码、科技、互联网这样的分类不准确的重复频道聚合更是常见,此外从新浪微博等社交网络里获得信息更是经常与前面的信息所重复,可以说当下的阅读应用对消除信息过载的帮助并不是很大。
这样的个性化和定制化工具存在风险,因为它们会产生回音室(echo chamber)的效果,即我们只读我们想要阅读的东西,因此只会听到我们想听到的讨论。信息或想法在一个封闭的小圈子里一直得到加强,自我的意识会减少。这种算法主导的过滤会减少我们扩展视野的内容,导致你自己生活在一个封闭的圈子里,想着你所想的永远都是正确的。例如只生活在新闻联播、环球时报、参考消息里的人他们所看到的永远都是那么几条新闻。
在日常阅读中我们经常会有一些我们没有预料到会出现的信息,我们称之为“意外发现”,这种意外发现的内容很多时候给我们的印象更深意义更大。而以算法为主的推荐在“意外发现”要弱于以人为主的内容生成(意外与算法暂时是有冲突的),长此以往,我们的信息接触面可能会日渐狭窄、同质化,从而失去了发现带给我们灵感和惊喜的新信息的机会。此外,对于个人兴趣范围的扩展也是相当不利。
那么当下这种阅读模式应当如何改进呢?其实可以从时下最热的电商上学习。近来我们可以看到在电商导购领域,编辑精选的实例越来越多,包括以杂志思维做导购的果库、走 PGC 专业生产内容的 LC 风格网、依旧是以编辑主导的逛,即使走用户生产内容的美丽说和蘑菇街在最后一步也是通过人工编辑的方式来挑选出最终的商品。就像果库联合创始人廖锦有所说的那样“在资讯泛滥的现在,编辑力的作用是一定会放大的,我们相信内容的力量。”
其实在阅读里面也应该有更多的像电商导购那样的编辑精选,因为从本质上说你想阅读的信息或文章和你想购买的商品是等同的。例如东西网新版,其目的就很明确,想在信息过剩的时代重归“精品阅读”。在当下这个信息过裕的时代,如果没有这种精品筛选的话,我们的阅读会比以前信息匮乏时代更加难以进行。
1. 增大专业编辑人员进行更多的人工精选;
2. 增大人工精选所占比例;
3. 改进机器筛选算法,将部分信息站点的全站源抓取改为对应某单一高质量作者源抓取。
整体来说就是现在的移动阅读应用除了社交化、个性化还应该更多提升编辑力,一些频道应该以人工审核文章为主,而不是简单的 RSS 站点抓取聚合或笼统泛滥的关键字筛选,就像 @范怿Ryan 说所的一个信息站点输出的不应该是品牌而是以文章为主,以作者为主,应该是一张纸一张纸的去消费的内容。聚合不应以机器为主,而以人工为主,因为算法在精选这方面的暂时还是远远与专业的人工相比的。这种由编辑主导的自上而下的推荐模式是可以迎合占多数普通用户的胃口的,而剩下的少数用户依旧可以利用原有的个性化过滤机制来满足其需求。
这种回归 Web1.0 的编辑精选并不是逆潮流,在当下信息泛滥的时代,尤其在语义网络和算法根本达不到人们所需要的时候,这种最传统的回归就尤为重要。而最近的东西网新版、读书马上、每日一问和悦读 FM 等类似的精选阅读网站和应用的出现似乎在印证着这一模式。未来相信类似的垂直网站和应用会出现更多。
来源:极客公园投稿, 原文链接。
评论《Web 2.0时代我们需要什么样的阅读》的内容...