影响力时代,社交平台的隐患
Maza vs Crowder,被摆上台面的隐患
今年5月30日,vlogger、科技媒体Vox的评论家Carlos Maza在一条推文里指责YouTube的内容审查和网络暴力管理松散,很快刷屏。
Maza在视频里指责一位拥有400万YouTube粉丝的博主、喜剧演员Steven Crowder,称其粉丝对自己发表了大量极端的侮辱性言论,尤其对Maza的种族和性取向出言不逊。
此前,Crowder在一条视频里提及Maza,粉丝们便闻风而动,更早之前,Maza突然收到了无数条短信,上面全是“去和Steven辩论啊!”
Maza向YouTube平台反映了这些状况,无数次。然而,毫无回应。
而Maza这条视频,似乎是对YouTube社区规则的一次无情讽刺。
今年初,YouTube高管宣布再次重新考虑网络言论的问题。长期以来,YouTube自诩言论自由、态度中立,允许用户上传任意视频——哪怕视频中表达对某些思想,比如阴谋论和新纳粹主义的公开支持。
于是,YouTube CEOSusan Wojcicki表示,要带领团队完成两大目标,一是摆脱外界对意识形态偏见的指控,二是保持公司价值观,尽管二者互相冲突。
YouTube随后发布了新政策,清算否定主义(比如对犹太人大屠杀和911事件的否定)和至上主义(比如宣称白种人、男人优于一切的言论)视频。YouTube原计划要在今年6月正式执行新政策,但Maza在5月——支持LGBTQ群体骄傲月发布的推文,将YouTube的内容审查问题摆在了大众面前。
Maza发布视频后,Crowder在推特和YouTube上回应,戏谑Maza就是“娘儿们”和“Vox Gay式”文化代表。这一边,Maza的支持者存下了指控平台的证据——Crowder的视频依然有前贴片广告,这表明平台方依然会给热门视频提供流量分成,换句话说,平台方隐晦地表明了对Crowder视频的宽容。
在Maza的推文刷屏之后,Youtube方面表示必将自查。一周后,平台称,经彻查,Maza指出的Crowder违规视频并没有违反社区准则。但第二天,平台宣布新政策:违规视频不再享受广告分成,其中就包括Crowder。
处罚没有让任何人满意。Maza希望平台完全、永久移除Crowder的视频;支持Maza的YouTube员工也站了出来,在推特和媒体上指责YouTube。
撰写YouTube第一版社区指南的技术咨询师Micah Schaffer说,“YouTube总是这样,就像之前想用新的算法改变新闻传播一样,最后只是直接和‘坏新闻’合二为一了,变得更糟糕。”
其它前同事也很困惑,“YouTube到底在搞什么?”他们的的邮件、短信如潮水般飞到Schaffer这里。
YouTube到底怎么了
事实上,从一开始,仇恨言论就是YouTube上的一大隐患,Schaffer说,“只不过早期的解决方式相对直接。”
在2005年,YouTube早期创立时,创始人Chad Hurley、Steve Chen和Jawed Karim承担了大部分的审核工作,一年之后才雇佣了一名兼职审查员。平台对问题视频做出移除处理,很少有人驳回。但14年过去,事情早已发生了变化。
YouTube母公司谷歌的CEO Sundar Pichai曾向科技媒体Axios表示,目前,YouTube的月活用户超过20亿,雇佣的审查员成千上万,而每一分钟上传到YouTube上的新视频,达500小时。
对于这种规模的平台,面临的技术、内容审查挑战前所未有。平台面临的根本问题并不是YouTube的商业模式,深层原因是社交媒体发展成了什么样子,以及它本应该是什么样子。
或许是因为社交平台庞大的规模,人们天然认为,技术就是仇恨言论的最佳解决方法——它相对没那么明显,程序员会在幕后默默解决棘手的问题。理论上说,平台会不断对算法进行微调,降低仇恨言论和阴谋论的权重,但在实际执行中,难度比想象中更大。
视频中出现明显的语言或标识的仇恨内容可以直接移除,但擦边球内容却很难被检测到,因此无法阻止大规模传播。目前,机器学习技术也在尝试分辨真正的仇恨言论和批判仇恨言论视频的区别。还有一种解决仇恨言论的方式,是自动化系统利用元数据标记出有害内容,通过收集某个用户的发布频次,某个视频在短期内获得的评论数,找到有害内容的内在关联性。但其限制性在于,只关注了平台上的内容,忽略了它煽动起来的互动。
除了技术限制,科技公司雇佣了大量人力,判断视频里的细微差别。在YouTube,他们被称作评级人(Raters),身份匿名,评估视频内容,还会帮助训练推荐系统。但有害内容的反噬也随之而来:大量浏览和筛选有害视频,引发了审查员的心理问题。
今年初,YouTube宣布要更关注用户的反馈,包括调查结果,点“喜欢”和“不喜欢”的数据,以帮助系统标记视频的质量。然而,2016年YouTube工程师撰写的一篇白皮书却表示,这些指标意义并不大:相较于类似用户点击什么视频、观看时长这种模糊反馈,用户能给出的明确反馈少之又少;更甚的是,平台的主要用户群体,青少年,却常常只给出一些恶搞的调研答案。
商业与内容之间不可调和的矛盾
商业上的挑战也加剧了技术的难度。
往大了说,任何以抑制用户互动为目的的调整,都可能和YouTube的商业模式相悖。作为YouTube主要对手的Netflix,通过对优质内容的采买编辑,打造了让人上瘾的爆款,带来订阅用户的一路走高;相比而言,YouTube强调的UGC内容,只能通过自动化推荐系统将内容串联起来。
事实上,YouTube一直在不断调整,但平台方始终不愿公布调整细节。不过,2018年的一篇文章透露出一些平台规则:用户开始观看视频后,系统将在设定下“对该选题视频进一步深挖,吸引用户掉进‘兔子洞’而无法自拔”。
研究人员对此表达了不满:平台算法虽然增加了用户黏性,但也进一步放大了平台上的仇恨言论和阴谋论。系统挖得越深,令人不适的推荐越可能浮出水面。举个例子,如果一直推荐“登月”视频,那关于“登月造假”的视频也会相应地出现。
詹姆斯麦迪逊大学的传媒学者Fancesca Tripodi对阴谋论者如何在互联网上持续传递假消息做了深入研究:如果平台某一“兔子洞”为空,持续生产上传相关内容填满这个话题,就能左右其方向。在4月的参议院委员会上,她表示,“当只有有限的或者没有元数据匹配某特定话题时,很容易围绕关键词进行调整,以保证谷歌反馈的信息类型(是我们想要的内容)。”
煽动分子可能利用信息缺失,使自己的视频出现在真正的新闻推荐中,而具有争议和猎奇性质的视频往往更有吸引力,它们会被推荐系统打上“高互动性”的标签,也更容易有露出机会。而往往,平台的自动化系统都会做出同样的推荐。
YouTube平台是保持中立的吗?
对于用户而言,社交媒体的价值常常和开放性有关。草根用户组成了线上社区,他们创造内容又反过来服务于普通用户,这是大家乐于见到的现象。
然而,算法和管理者,一步步重新塑造了社交媒体平台的民主中立性。
YouTube创办初期,员工手工筛选出爆款,挂在首页的“时下流行”一栏里。所以,谁涨粉,谁爆款,完全由平台说了算。
此外,人工筛选也塑造了平台气质:当某一类型内容获得更多曝光,自然向创作者传达出一种信息——这种内容在平台上更受欢迎。Schaffer回忆起创立初期的平台内容,当时平台最推崇的是家庭向,无版权风险,且有吸引力的内容。
并不中立的创作者革新计划
2016年,YouTube大力推出“创作者革新”计划(Creators for Change),让更多有社会责任感的创作者加入其中,YouTube市场营销经理Paul Marvucic认为,他们组成了一个社会影响力团体,“相信创作者,这是我们的核心价值观。”
去年12月,谷歌CEO Sundar Pichai在国会上接受议员对社交媒体平台的政治影响力的提问,Pichai表示,“打造一个无偏见的平台,对我们非常重要。”
话虽如此,实际上,创作者革新计划却要求YouTube必须选择一种意识形态站边。去年秋天,为纪念联合国人权宣言发布十七周年,YouTube在联合国的经济社会论坛上举办了一场面向大中学生的活动,5名创作者作为大使,和联合国人权事务高级专员办事处处长Craig Mokhiber一起出现在台上。这无疑是一种站边。
整个2018年,YouTube招募了47名大使,投入近500万美元,除了邀请博主参与,另一部分投入学校,帮助学生应对煽动性视频。YouTube内部人士透露,2018年,大使们的视频带来了数万的观看时长。很多观众通过观看创作者革新计划的视频看到YouTube的自动化广告:这也意味着,平台在其中同时也实现了盈利。
被扶持创作者的两种“命运”
在创作者革新计划中,一名创作者是来自孟买的喜剧明星Prajakta Koli(频道:MostlySane),她有400万粉丝,她经常在视频里展现在大学餐厅碰到的暴躁人士,或是约会陷阱里的外国人。
她的内容都围绕这一个主旨,“不冒犯”(No Offense)。
在一个MV里,Koli穿着睡衣,没精打采窝在沙发里,镜头另一边,是她一人分饰多角,扮演恐同者、厌女症和网络暴民。接下来,沙发上的自己戴上拳击手套,在rap battle中挨个击倒了“自己”。
这条视频已经有1200万观看量,是Koli最受欢迎的一条视频。后来,Koli开始尝试聊一些更“重”的选题了,比如从自己出发,聊聊离婚和身材羞辱。
于是,YouTube开始运营相关话题,在“不冒犯”的内容上投入了相关的营销预算,在平台帮助下,Koli的视频大获成功。
通过YouTube创作者革新计划提供的资金,俩人制作了一条关于科学评估种族主义影响的视频。这个耗时一周制作的视频,围绕内容展开的种族主义相关的错误信息和恶意讨论却长达七八个月。Brown说,在这方面,平台需要优化,需要做更精准的推荐。
比起那些毫不费力的有毒内容,Brown制作的研究结果、调研参数、最终结论的视频,往往显得没意思,这是个很大的挑战。
最近,科普视频AsapScience的创作者Gregory Brown表达了他对平台无法有效治理仇恨言论的失望,但他也意识到,YouTube拥有的全球影响力,决定了面临问题的棘手性,“既要盈利,又要审查,还要保持价值观,平台希望三者并行”,不过,对他而言,“在如此庞大的用户体量下做科普,对我而言非常重要,我依然认为YouTube会是我的最佳选择。”
有害言论治理:努力维持却无法中立
长久以来,YouTube上的病毒传播视频被大量的“复读机”模仿。对于这种生态,YouTube希望创作者革新计划能发挥模范带头作用。
这招双管齐下。阴谋论视频的高点击会使视频创作者选择生产相似的视频;反过来,“创作者革新计划”的大使们会将一些正向视频作为灵感。理论上,只要在平台上宣传YouTube会给予关注社会正义的内容以创作补贴和免费推广渠道,将会促进谴责仇恨言论的视频数量激增。
不过,对于如YouTube一般的平台,很有可能出现所谓的“言论对立(counter speech)”。密歇根大学社交媒体责任中心的计算机科学教授Libby Hemphill研究不同场景下谈话的差异,她提到,为了打击阴谋论,言论对立必须存在。
“推荐系统提供的内容,不只会提供我们想要看的内容,还会隐藏起那些我们并不积极主动去寻找的内容。而偶然接触不知道的内容正好是我们需要的内容,但这个概率非常低。”简而言之,鼓励好内容还不够,还需要让不主动找内容的人,也听到对立的声音。
理论上说,YouTube可以点对点的方式动态打击仇恨言论。近几年,平台也确实利用“重定向方法(Redirect Method)”对恐怖主义内容进行打击:内容审查员会移除恐怖分子招募视频,与此同时,招募视频的搜索结果将重新定向到反恐怖主义和反极端主义的视频。
在之前的“重定向”平台治理方案中,一位YouTube代表透露,平台并不准备将男权内容重新定向至女性主义者支持的创作者革新计划的内容。公司或许会担心,用对待恐怖主义相同的方法对待厌女症,可能打破YouTube试图建立一个无偏见社区的初衷。
另一种让言论对立更高效的方法应该是抑制为对立而对立的言论。今年三月,一个宣扬白人至上极端分子在新西兰基督城对一座清真寺展开了大规模毒杀,而这条视频迅速在社交网络上以病毒速度扩散开来。YouTube前主管Hunter Walk在Twitter上表示,平台应该保护的是“言论自由”,而不是内容的“触达自由”。
他建议,YouTube应该在推荐系统中降低有害内容的权重,减少推荐,本质上说,这样做可以“限流(shadowban)”来减少这些有害内容——用户可能不会知道自己搜索的内容已经被隐藏了,不受欢迎的用户被“低调”隐藏。理想情况下,由于内容被限流,能触达的用户有限,可能让这些创作者感觉受挫,然后尝试其它方式。
限流其实是一种来历已久的审查工具,很长时间以来,互联网论坛版主都通过限流来减少垃圾内容和网络骚扰。
不过,在大型的社交媒体平台上,“限流”并不针对个人,而是针对被算法挑选出的内容。YouTube曾经发布过一份社区指南的清单,针对“无益处的极端血腥或暴力”,或是假装理性、礼貌或学术口吻去支持仇恨思想的视频,评级员都会给予低评级。随后,平台的AI系统根据评级结果进行机器学习,减少争议性视频出现在推荐系统中的概率。在这个过程中,个人用户不一定知道自己的视频如何受到影响。
但系统的不明确性使得大众质疑。
今年4月,Ted Cruze组织了参议院小组委员听证会,会议主题为“扼杀言论自由:技术监管与公共话语”,Ted提出,要对平台进行监管,甚至带来了证人,指责平台的自由主义偏见。
受Cruze邀请参与庭审会的一名成员Eugene Kontorovich是乔治曼森大学的法学教授,他在证词中表示,他考虑了监管是否能真正解决搜索和社交平台上的偏见问题,但解决潜在偏见的最佳方式反而是透明化。限流或许有效,但同时会导向偏执。比如,透明化的创作者革新计划,由于其视频得到了明显的标记,增加了项目的吸引力。
不过,YouTube和其它公司的工程师反对算法公开,原因很多,但共识在于,算法黑箱才很难被利用。而曾在法国政府工作,为官方对网络仇恨言论的处理提供咨询的计算机科学教授Serge Abiteboul认为,公开可验证好过于不清不楚。
平台方曾声明,自从1月改进算法后,推荐系统中含擦边内容和仇恨言论的视频已经减少了一半,然而,由于缺乏透明度和监管,这一结果也很难确认。在Abiteboul看来,大众所接受的任何监督都好过于平台自己出台的非公开政策。
平台坚持中立是一种“斯德哥尔摩综合征”吗?
在来到YouTube工作之前,他曾经在一家以贩卖令人震惊的图片和视频的网站工作,这个网站上充斥着各种可怕的事故、医疗缺陷,这些内容在疏离大众的同时,吸引到一小撮狂热用户。“比基尼和纳粹主义有一种寒蝉效应。”
而YouTube,希望通过突出更大众的内容,与其它内容社区区分开来,创造一个人人都乐于表达的社区。
所以,平台会决定主推和禁止的视频,也将一些擦边视频移除主页,但它依然给了有害内容一个小空间。当时他们认为,如果只是隔离擦边内容,它也不会对正常的内容消费有影响,即便有,多数人也会立刻意识到,这种内容不对。听上去很理想,但过去这些年发生的事故却告诉Schaffer,他的设想完全是个错误。
推荐系统效率的提高,让很多有毒内容重新暴露在了阳光下,这是YouTube早期的规则设定者们从未预料到的情况。
最终,这些擦边内容完全改变了平台的初心和产生的影响。Schaffer发现,当初设定时的基础前提有缺陷,“我们不需要YouTube告诉我们还有这么一群人存在,言论对立也不是合理的负担,垃圾内容的打击难度比传播高很多,作为平台,早该对此有所作为。”
一些专家指出,算法调整、鼓励对立都无法改变YouTube的基础架构,其核心是鼓励大众上传海量视频,即便来路不明。而这种架构,本质上就无法和正常的民众对话相容。
对于平台上存在让人无法自拔的内容“兔子洞”导致了用户行为激进化,YouTube并不承认。无论研究人员观点如何,在YouTube上,极端视频既不会有更多互动,也不会受到算法的青睐。与此同时,YouTube也表示,已经对推荐系统进行了调整,擦边内容的搜索结果将重新定向到权威信源,比如CNN、福克斯等。
据《纽约时报》近期的报道显示,YouTube的算法会鼓励用户观看更多样化的新内容,在新的调整中,平台将加强对推荐系统的管控,防止个别频道的爆发式推荐。
据反诽谤联盟的调查显示,2018年,有53%的美国人表示曾遭受网络仇恨言论和骚扰,于是,用户用减少使用时间和卸载App的方式表达不满。去年谷歌和斯坦福大学共同发布的一份研究表示,将有害内容定性为“能让你终止谈论的粗鲁、不尊重或不合理的评论”。
在YouTube的创作者革新计划中,加入了一项教学计划,鼓励学生用视频发声,让同类聚到一起。之后,年轻人通过视频发声,抨击有害内容,吸引到了不少粉丝。
那么,既然YouTube推出创作者计划的原因是鼓励用户创作正向的内容,为什么不能直接通过重定向系统将仇恨言论的搜索结果定向正向内容呢?在YouTube看来,他们不愿意主动“挑选优胜者”。
计算机科学教授Libby Hemphill却表示,“我希望他们意识到,平台所做的,就是挑选优胜者。哪怕是深度学习算法,其作出的决定也完全由人类来定义。那么,平台的确应该可刻意挑选出不同的优胜者。”而Schaffer认为,平台所坚持的中立性,不过是一种“斯德哥尔摩综合征”,“他们担心这么做会惹恼了头部创作者,这种强加的价值观,已经妨碍了创作者们。”
创作者革新计划对“正向偏见”的开放态度,提供了另一种对社交平台的思考。平台可以像一个联合国的论坛,而不只是一个不切实际理想化的中立乌托邦。事实上,平台可以成为一个建立在对人格尊严和普遍权利共识上的讨论和磋商。
“失控”的YouTube将如何被写入历史?
多年后,创始人之一陈士骏(Steve Chen)还是会回忆起刚创业时的场景——他要从被算法遗弃的视频“角落”里手动高亮优质视频,比如被偶然记录下的卡特琳娜飓风导致的灾难现场,极端的时候,被挑出的视频只有25次播放。
“如果没有YouTube,非洲摄影师的作品无法被全世界看到,而这正是我的工作重点。”
当初做内容编辑的陈士骏认为,像是飓风灾难或袭击现场这些非专业的UGC内容,只有YouTube上有。
11年后推出的“创作者革新”计划,听上去似乎是陈士骏的进阶计划:精选好的内容,向用户传达一种信息——这是我们需要的好内容。
然而,技术的发展和全球化的扩张,让当初的愿景变得越来越模糊,“无论平台上的好内容如何,这最终都是算法所决定的。如果你喜欢某一种内容,那么平台会从上亿内容中再精选出几十条,你还是会喜欢吗?算法可不会无缘无故做选择。”
十年前,陈士骏离开了YouTube,他一点也不后悔放弃掌门人的位置,甚至有些庆幸,面对失控的内容,“我不知道可以有什么解决办法。”
而希望平台对观点进行挑选的Brown表示,“如果算法透明化,平台盈利会减少,连带着的,是它的影响力。”
所谓的“中立”价值观,边界在哪里?这对于YouTube,以及众多社交平台而言,都是一个巨大的考验,如何应对这个挑战,决定了平台将如何被写进历史。这听起来有些残酷,但现实的确沉重。