工程伦理案例分析

“外卖骑手,困在系统里“背后的伦理思考

  • 背景

去年,一篇叫《外卖骑手,困在系统里》的深度调查报道,引发全民对外卖行业商业伦理、职业风险、用户体验的讨论。2万字长文,23张配图,细数了美团、饿了么崛起背后平台、600万外卖骑手以及5亿用户之间的需求与矛盾。由于平台不断压缩送餐时间,外卖骑手“舍命狂奔”,事故不断,已成为“高危职业”。此外,报道还分析了苛责的用户评价、时效体系,制造并不断加剧了矛盾。事件发酵后,饿了么率先表示,将给用户“多等5分钟”的选择;美团则在一天后发文,表示认错、反思,将给用户“多等8分钟”的选项,并将加大资金和技术投入,保障骑手安全和权益。    外卖行业已高速冲入“下半场”,外卖平台、商家、骑手的矛盾日益凸显。我们不禁会思考到底是谁“偷走”了外卖骑手的时间和安全?谁应该承担这种责任?“他”为什么要这样做?是什么加剧了外卖平台、商家、骑手的矛盾?

  • 案例介绍

在过去一年多时间里,美团配送团队在机器学习、运筹优化、仿真技术等方面,持续发力,深入研究,并针对即时配送场景特点将上述技术综合运用,推出了用于即时配送的「超级大脑」——O2O 即时配送智能调度系统。

系统首先通过优化设定配送费以及预计送达时间来调整订单结构;在接收订单之后,考虑骑手位置、在途订单情况、骑手能力、商家出餐、交付难度、天气、地理路况、未来单量等因素,在正确的时间将订单分配给最合适的骑手,并在骑手执行过程中随时预判订单超时情况并动态触发改派操作,实现订单和骑手的动态最优匹配。同时,系统派单后,为骑手提示该商家的预计出餐时间和合理的配送线路,并通过语音方式和骑手实现高效交互;在骑手送完订单后,系统根据订单需求预测和运力分布情况,告知骑手不同商圈的运力需求情况,实现闲时的运力调度。通过上述技术和模式的引入,订单的平均配送时长从 2015 年的 41 分钟,下降到 32 分钟,进一步缩短至 28 分钟,另一方面,在骑手薪资稳步提升的前提下,单均配送成本也有了 20% 以上的缩减。

但骑手们永远也无法靠个人力量去对抗系统分配的时间,他们只能用超速去挽回超时这件事。一位美团骑手告诉《人物》,他经历过的最疯狂一单是1公里,20分钟,虽然距离不远,但他需要在20分钟内完成取餐、等餐、送餐,那天,他的车速快到屁股几次从座位上弹起」。

超速、闯红灯、逆行……在我看来,这些外卖骑手挑战交通规则的举动是一种逆算法,是骑手们长期在系统算法的控制与规训之下做出的不得已的劳动实践,而这种逆算法的直接后果则是——外卖员遭遇交通事故的数量急剧上升。2017年上半年,上海市公安局交警总队数据显示,在上海,平均每2.5天就有1名外卖骑手伤亡。同年,深圳3个月内外卖骑手伤亡12人。2018年,成都交警7个月间查处骑手违法近万次,事故196件,伤亡155人次,平均每天就有1个骑手因违法伤亡。2018年9月,秦皇岛交警查处外卖骑手交通违法近2000宗,美团占一半,饿了么排第二。

  • 案例分析

我们看到了“困在算法里”的外卖平台骑手们,面对不断压缩的订单送达时间,他们没有选择,只能遵循算法的设计逻辑,看着手机上一条直线的数字地图,在现实的道路上“与死神赛跑,和交警较劲,和红灯做朋友”。我们做了以下思考:

1.谁“偷走”了外卖骑手的时间和安全?是人工智能算法。算法不仅仅学习了外卖骑手正常行驶下最好的路线,还学习了某些“聪明的”外卖骑手非正常形式的路线,这就导致了算法系统就认为外卖骑手们都有能力达成如此的效率,使得外卖订单越来越难按约定时间送到,从而外卖骑手在如此重压下,往往会铤而走险,最终酿成惨剧。

但是算法永远都是工具,算法没有错,错的只是操作算法的人,即算法工程师,算法工程师应该承担这个责任。算法如何压榨外卖骑手的原因很多程度上在于算法工程师松弛了骑手们应该遵守规则的限制,将某些“非常规”行驶的外卖骑手的行为视为不见。

2.算法工程师这样做,导致各种惨案,难道不觉得违心吗?可能他们未必会觉得违心,首先因为从个人角度考虑,他们只创造算法,但是算法别人怎么用,用在哪里,跟自己无关了;其次,从公司角度考虑,他们为公司创造利润,公司给予他们回报,合规合法;再次,从职业角度考虑,他们的工作就是为了解决最优化问题,为雇主获得最大利润;最后,从社会角度考虑,人工智能算法的数据来源于外卖骑手本身,是外卖骑手本身的不规范,才导致的算法学习到这种方式。

3.算法工程师的解释看似都合规合法,但这个问题的根源到底在哪?根源就是他们的行为虽然合规合法,但是他们违背了工程师的伦理责任。James Armstrong 等人在《决策者:工程师的伦理学》一书中指出,工程师具有多种角色:统治者——因其拥有技术政治和物质财富而被看作乌托邦社会中的决定性角色;守望者——以工程知识为基础,追求社会利益的最大化;有产者的仆人——管理者的仆人,将管理者的思想变成现实;社会的仆人——忠诚于社会事业;遵守社会规范的游戏者——按照政治和经济的规则,希望在竞争中获胜。因此,算法工程师不仅要对雇主(组织)忠诚、要对职业忠诚,还要对社会忠诚。明知不可为而为之,利用某些外卖骑手的不规范,强行加到每个骑手,这样的压迫,压榨行为并不是对职业忠诚,也不是对社会忠诚。

    4.算法工程师应该怎么做?他们应该去寻找到创造性的中间解决方式,但如果暂时没有找到这种方式,当雇主、职业、社会三者之间存在冲突时,工程师要优先忠诚于社会,次之是职业,再次是雇主(组织)。

5.是什么加剧了外卖平台、商家、骑手的矛盾?深层原因是什么?一些矛盾的背后,最根本的原因往往都不是矛盾对象以外的问题,而是矛盾对象本身的问题。外卖平台太重视效率,消费者太在乎外卖的派送时间,外卖骑手为了挣钱,敢于冒险。平台速度是一种时间节奏,集中体现着平台规则和算法支配下的统一性、规划性和标准性,而且蕴含着一种肤浅的消费哲学,代价就是将劳动者的主体性、情感性和立体感隐藏起来,这也助推了平台算法所带来的社会不平等,从而加剧了三方的矛盾。

  • 关于人工智能算法的结论与建议
  1. 建构算法风险伦理评估模型与审查体系

人工智能应该是道德的、向善的,但对算法的道德要求、技术标准、评估体系等方面,仍然存在很大的提升空间。算法的关键属性特征能够影响风险的形成效果,而算法风险的准确评估则需要经历一个较为复杂的认知与实现过程。算法由编程代码组成,而编程代码本身是无法监管的。相反,只有相应的规范管理实体或规范的实际结果才能被规范。

  1. 提升算法的伦理信任阈值与制定评估指标

为防止算法欺骗或者操纵人类,在人与算法互动的过程中维护人的能动性,提升算法伦理信任阈值是防范算法风险的重要路径。伦理信任阈值包括算法风险与伦理相关的主题要素,如透明度、可解释性、价值观、公众道德期望等。这些伦理维度的量化特征属性,将与算法风险有关的各种度量指标纳入伦理设计过程之中,涵盖了大部分已经达成的伦理共识原则。不正当偏见的损害性主张容易造成算法的可信度下降,因此算法在设计之初便要符合道德规范的设计,嵌入相对公平的伦理价值,以避免造成算法的越界应用和不当后果。

  1. 设立算法风险伦理问责机制

算法以及源代码获取的渠道日益开源,其安全可靠性成为衡量算法风险的重要因素,这就要求我们不仅要对技术的精准使用负责,还要对其可能造成的社会伦理影响负责。从认知科学视角探讨算法风险的社会影响,从伦理嵌入、风险评估、公众参与等方面,探讨基于社会影响和公众接受度的算法风险认知,是消除算法偏见、实现公平正义的重要途径。

  • 其他与人工智能相关的伦理问题

AI的伦理问题1:

AI人脸识别存在风险问题—“变脸”:

2018 年初,有位名叫“Deepfake”的匿名 Reddit 用户用自家的电脑和开源的人工智能工具,鼓捣出了人工智能“变脸术”,可以在任何视频中将一个人的脸换成另一张脸。这样会导致许多的欺诈、以及侵害他人肖像权等问题。

短短几周,网上就到处充斥着换上名人脸的粗劣色情片。尽管 Reddit 很快封杀了 Deepfake,但为时已晚,这种技术已经在网络上扎根。

由于不少高频使用的 App 都用手机号+面部图像注册登录,中国用户担心 AI 换脸软件被不法分子利用,通过技术合成完成刷脸支付等;或在微信视频,假扮家人朋友却不被识破,导致诈骗甚至更严重的犯罪行为。

案例分析:

利用AI进行换脸,从而侵犯他人的利益,是严重的伦理行为,甚至是犯罪行为。存在着恶意欺诈的行为。

AI的伦理问题2:

假新闻问题:

2019 年 2 月 15 日,AI 研究机构 OpenAI 展示了一款软件 GPT-2,只需要给软件提供一些信息,它就能编写逼真的假新闻。

OpenAI 公布了软件编写新闻的过程。研究人员给软件提供如下信息:“一节装载受控核材料的火车车厢今天在 Cincinnati 被盗,下落不明。”以此为基础,软件编写出由 7 个段落组成的新闻,软件还引述了政府官员的话语,只不过,这些信息全是假的。

如果 GPT-2 可被用来写假新闻,理论上,也有可能被用来生产仇恨语言和暴力言论,包括垃圾邮件、虚假社交言论等。由于 GPT-2 生成的文本都不是单纯复制粘贴来的,而是 AI 的即时生成,这导致负面文字无法被有效地追踪和清理。况且,如果机器写出文字进行传播,责任人很难被定性,且追查。很容易引发其他现象。

案例分析:

利用技术生成新闻,涉及到虚假信息,从而产生非常严重的影响,这些影响是非常恶劣的;一旦信息大范围传播,对社会造成的影响也是无非控制的,一定程度上,发明人本身存在伦理问题。

AI的伦理问题3(争议问题):

监控学生上课

将先进技术用于教学场景,算是最具争议的一类应用。2019 年 11 月,浙江一小学戴监控头环的视频引起广泛的关注与争议。

视频中,孩子们头上戴着号称“脑机接口”的头环,这些头环宣称可以记录孩子们上课时的专注程度,生成数据与分数发送给老师和家长。这个又在现实生活中充满了广大的争议。有些人认为是时代的进步,更加有助于教学质量的把控,更多人认为这样的方式不妥。

案例分析:这个事件说明了AI一方面在让人类进步的同时,一方面也对人的隐私产生了重大影响,这个一直是长期争议的话题。

你可能感兴趣的:(sketch,平面,交互,新媒体运营,其他)