让一些算法向另一些算法低头

让一些算法向另一些算法低头_第1张图片

印尼巴厘岛库塔海滩。2018年2月14日


即使像张一鸣这样目空一切的算法派,也不得不让算法低下它高贵的头颅。


在今天上午发表的这封道歉信中,张一鸣说:“产品走错了路,出现了与社会主义核心价值观不符的内容,没有贯彻好舆论导向,接受处罚,所有责任在我……我深刻反思,公司目前存在问题的深层次原因是:‘四个意识’淡薄、社会主义核心价值观教育缺失、舆论导向存在偏差。一直以来,我们过分强调技术的作用,却没有意识到,技术必须要用社会主义核心价值观来引导,传播正能量,符合时代要求,尊重公序良俗。”


上周三,扎克伯格在美国国会听证会上作证时说:“我们在防止这些工具被滥用和产生伤害等方面仍做得不够……我们没有全面地评估我们的责任,这是一个严重的错误。这也是我的错误,我非常抱歉。我创建了Facebook,经营这个平台,我对Facebook当前发生的问题负责。”


中美两个有影响力的科技公司的CEO几乎同时为自家产品的错误道歉,或许反映了某种气候的改变。仅仅半年前,他们还都是一副自信满满、踌躇满志的样子。


这里有两个问题,一方面,科技公司的算法在驱动业绩增长方面,可谓势如破竹,无往不利。今日头条几乎完全凭借算法,快速超越了传统门户的人工编辑模式,并且一骑绝尘,优势极为明显。但在判断内容质量,发现传播风险方面,算法还处于非常幼稚,非常初级的阶段,不太能指望得上。


另一方面,公众、舆论和相关主管部门对算法驱动的内容业务,基本上抱持不了解、不信任、不放心的态度。而且,事实证明,这种不了解、不信任、不放心不但没有减轻,反而越来越严重。科技公司的CEO不得不接二连三地出来道歉。

对今日头条推荐算法的质疑由来已久,去年《人民日报》就有多篇文章质疑今日头条。我也质疑今日头条的算法,不过我质疑的是它用算法去迎合人性,官媒更多的是质疑算法的导向性,或许就是张一鸣在道歉信中所说的“四个意识”吧(唔,别问我,我还没来得及Google)。我当时写了篇评论《瞧这算法》:


实际上,算法不仅存在于代码中,它同样存在于人的大脑里。比方说,《人民日报》的头版编辑通常会将领导人活动的重要性,排在所有其他新闻之前,这就是《人民日报》头版编辑固化在大脑里的‘算法’。每次拿起《人民日报》,我都油然而生跟一个算法对话的即视感。说实话,《人民日报》的编辑算法,和今日头条的机器算法之间,我常常分辨不出哪一种更高级,哪一种更负面,只能说各有千秋吧。


算法,你可以将其理解为某种形式的权力,或者说权力的运行机制,但最终它体现的都是人的意志。一些算法比较强势,可以让另一些算法低头,早在一年前甚至更早的时候大家就心知肚明,可是张一鸣却一直在用一个算法工程师的身份对仍然有主编的媒体喊话:“如果头条有主编,他不可避免会按照自己的喜好去选择内容,而我们做的就是不选择。”


只有面临重大风险,甚至生死抉择的时候,你才会明白,不管产品自身的增长有多么凶猛,不管你的用户规模有多么庞大,不管业界有多少赞歌献给你,也不管资本有多么青睐你巴结你,你所掌握的那些权力,其实层级并不像你以为的那样高。


张一鸣在道歉信中说:“(我们要)强化总编辑责任制,全面纠正算法和机器审核的缺陷,不断强化人工运营和审核,将现有6000人的运营审核队伍,扩大到10000人。”


巧的是扎克伯格在听证会上也有类似的表述:“(我们要)大力增加我们在安全业务方面的投资。目前,我们拥有大约1.5万名员工在从事安全和内容审核相关的工作。预计到今年底之前,我们将把这个数量增加到2万以上。”


尽管在利用AI审核仇恨言论等方面,Facebook已经投入了巨资,一直在进行相关的研发,但扎克伯格认为,想要依靠AI审核内容,可能“还需要5-10年”。对张一鸣来说,这不是一件还需要多少年的事,内容审核是一件需要将责任落实到人的事,无论再经过多少年,今日头条都不太可能如愿成为一个没有编辑、没有人工审核的内容分发平台。恰恰相反,它可能会是劳动力最密集的互联网公司。


Facebook的听证会,看上去更像一场面对技术白痴进行的谣言澄清会和技术普及会,但是这些技术白痴手里的算法,能要了扎克伯格的算法的命。张一鸣的道歉信也常常让人感到错愕,仿佛来自远古。


所以现在或许已经到了这样的时候,高歌猛进的时期结束了,科技公司的算法该好好算算怎么跟其他算法相处了。


让一些算法向另一些算法低头_第2张图片

你可能感兴趣的:(让一些算法向另一些算法低头)