如何看待Facebook创始人请3000员工对网络不良内容进行处理

受到一位朋友启发,意识到保持输出是一种很好的学习方式。新闻与传播专业有大量分析与评论的题目,仅在此作为练习。此前从未接触过这方面知识,瞽言刍议,不要见笑

Facebook扎克伯格宣布将会雇佣3000名员工处理网站上不良内容。他们会监控Facebook的所有内容,不只是直播视频。

Facebook上为何会有大量不良内容

Facebook作为社会化媒体,融人际传播、群体传播、大众传播等传播类型于一体,同时拥有庞大的、彼此相连的用户群体,使信息能够迅速、广泛的大面积覆盖。而海量的信息中泥沙俱下,一一核实要求极高的成本与技术支持,造成了平台中的内容良莠不齐。

社会化媒体中信息接收者同时也是信息生产与传播者,去中心化的传播机制也意味着专业媒体机构、专业组织的话语权被不同程度解构,把关权力泛化,信息的筛选机制发生了变化,用户的投票、转发量决定了一条消息被关注的程度。但多数人的意志不一定指向正确的方向,炒作、水军、自动发帖器的干扰也会营造出虚假的信息环境。

社会化媒体具有交流结构上的开放性,每个人都是一个节点,每个节点与其他节点相连通,既保证个人中心又可以将外界的信息随时随地的吸收进来,更容易形成持续刺激。转发的简便性促进了信息的“病毒式传播”,所以一条不良内容可以裂变式传播到更大范围中。

尽管Facebook对用户采取实名制,但社会化媒体中的关系毕竟不同于现实社会,心理上的“匿名”与互动方式的符号化会使人们倾向于忽视现实社会的约束,传播不良信息。而用户的媒介素养不够使他们容易受到猎奇、盲从等心里的影响,轻信并对不良内容进行二次传播。

此外,Facebook并非专业媒体,其管理者可能也不是专业媒体从业人员,缺乏专业素质与职业道德标准,在商业利益的驱动下,难以做到经济与责任的平衡。

Facebook为何要对不良内容进行处理

首先可能会损害用户知情权,平台被大量不实、低俗、娱乐化的信息充斥,使用户难以获得真正有价值的信息。其次,造成文化消费的媚俗、低级败坏了大众的品味和文化修养。第三,可能会误导受众,使其无法对现实世界做出正常的判断,也分散了他们对真正重要的社会信息的注意力。第四,媒体容易被利益集团操控,不利于良好网络秩序的建设。由此带来的声誉下滑与用户流失将直接影响其日后的发展。

Facebook为何要引入人工处理

Facebook此前尝试过用算法把关和社交把关来处理不良内容,但效果并不理想。算法看上去是机器的力量,但决定算法的是人。人的失误会带来算法的偏差。其常见陷阱之一,是它会带来偏见与歧视,而且是采用更隐蔽的方式。机器算法之下的拟态环境未必会更接近真实社会。另外,内容与特定接受者之间“算法为媒”进行匹配,可能会来带信息茧房效应。应警惕机器算法与个人兴趣双重过滤下人们对外界认识与判断产生的偏差。

社交把关也有问题。首先是用户媒介素养问题,难以辨别不良信息和用户本能的猎奇与媚俗心理将成为社交把关的障碍。而社会化媒体的高聚类系数,使观点、兴趣相近的用户密集聚合,回音壁效应更加明显,造成群体极化。人们只选择与自己态度相近的声音,意见趋于极端,反而可能助长不良信息。

由此,人的价值得到凸显。

人工把关应注意哪些问题

Facebook并非专业媒体,那么他们的员工按照怎样的原则来筛选就值得探讨。一方面,监测所有内容是否会造成用户数据泄露,侵犯个人隐私。另一方面,人工把关下如何保证用户的表达权。或许这些人员也应该接受类似新闻教育的培训和监督,使其更好地履行责任。

本文为了考试而练习,是在阅读过参考书目的基础上运用书中的知识写成的,与纯粹原创文章有别,如有侵权内容,将及时删除

你可能感兴趣的:(如何看待Facebook创始人请3000员工对网络不良内容进行处理)