美国联邦贸易委员会提出 AI 发展建议:不要给消费者带来惊喜

美国联邦贸易委员会提出 AI 发展建议:不要给消费者带来惊喜_第1张图片

技术编辑:徐九丨发自 北京
SegmentFault 思否报道丨公众号:SegmentFault


美国联邦贸易委员会(FTC)下属的消费者保护局局长安德鲁-史密斯(Andrew Smith)本周发布了一篇文章,名为《使用人工智能和算法》。该文章旨在对正在开发和使用消费级人工智能的企业提供一些帮助。

文章中的经验主要来自于 FTC 过去的执法行动、行业报告以及研讨会,其中一个最重要的信息就是建议企业在开发和使用人工智能时,不要让消费者或者他们自身感到惊讶。


谨慎对待人工智能,除了有助于避免 FTC 的审查之外,还能带来一些好处。比如还可以帮助避免与消费者和商业伙伴的关系受损。此次 FTC 在文中提出的建议主要分为四大类:

  1. 要透明。
  2. 向消费者解释你的决定;
  3. 确保你的决定是公平的;
  4. 确保你的数据和模型是稳健的、经验性的。

尽管其中许多信息涉及到 FTC 执行的特定行业法律,如《公平信用报告法》(FCRA)和《平等信用机会法》(ECOA)等,但其实很多建议具有更广泛的适用性。

担起企业的责任

诸如 FCRA、ECOA 和 1964 年《民权法》第七章等行之已久的法律,他们分别适用于消费者报告、消费信贷、投票、教育和提供公共场所等领域的人工智能使用。要履行这些法律的义务,有赖于承认这些法律是否以及何时适用。

然而,FTC 的文章中讨论的法律远非详尽无遗。在文章中提到的法律之外,还有一条重要的法律需要补充 —— 健康保险便利和责任法案(HIPAA)。

该法案制定了一系列安全标准,就保健计划、供应商以及结算中心如何以电子文件的形式来传送、访问和存储受保护的健康信息做出详细的规定。法案规定在确保私密性的情况下保存病人信息档案六年,还详细规定了医疗机构处理病人信息规范,以及违法保密原则、通过电子邮件或未授权的网络注销病人档案的处罚方案。

虽然通常情况下,当一个企业作为医疗服务提供者、保险人或信息交换中心时,通常是很清楚的,但要确定公司何时成为受保实体的「商业伙伴」可能更具挑战性。

此次新冠疫情的影响加速了和医疗健康相关的 AI 产业发展,而这些企业在寻求技术突破的同事,更需要了解企业应该担负的责任。

全面评估数据和 AI 模型

根据文章所述,FTC 已经制定了评估 AI 系统是否存在非法歧视的法律和经济标准。

具体来说,该机构将查看输入的信息,以确定它们是否包括「基于种族的因素,或此类因素的替代信息」。

文章中表达了一个强烈的观点,就是 FTC 对通过使用 AI 可能产生的歧视的关注度相当高。"使用人工智能和算法工具的公司应该考虑是否应该对人工智能结果进行自我测试,以管理这类模型所固有的消费者保护风险"。

然而,FTC 并没有为这些评估提供一个框架,也没有更笼统地指出哪些类型的 AI 歧视风险可以被采取行动。尽管如此,企业仍需善意地努力识别和降低此类风险。

对供应商进行尽职调查,约束下游用户

FTC 的 AI 指南中贯穿着另一个主题:公司应仔细评估 AI 相关数据和分析的上游供应商如何遵守其法律义务,并对其进行适当的约束,以防止自己的客户以不适当或非法的方式使用 AI 服务。

虽然 FTC 重点关注 FCRA 和 ECOA 下的上游和下游要求,但远离更多的高监管活动才是其意图。

在签订人工智能相关业务关系之前进行尽职调查,要求在合同条款中写明人工智能系统和数据输入的允许用途,以及监督业务合作伙伴的表现,都是实现这些目的的关键。


FTC 在监督人工智能在经济领域的使用方面的作用还处于起步阶段,并将继续发展。但不管怎么说,该机构此次发布的文章,对于随着科技发展而新兴的法律和企业对自我监管的思考,都提供了一个有用的资源。

参考资料:
AD LAW ACCESS
维基百科: 健康保险便利和责任法案

美国联邦贸易委员会提出 AI 发展建议:不要给消费者带来惊喜_第2张图片

你可能感兴趣的:(人工智能,行业)