2018-06-10

司法人员正在使用日益复杂的风险评估工具来帮助提醒取保候审和量刑判决——包括应该入狱多少年的新判决,以及在现有判决服刑一段时间后是否可以假释。


根据马歇尔计划的报告(编者注:马歇尔计划是美国一个无党派、非营利的新闻机构,致力于建立和维持美国刑事司法体系的有序运营),美国各地大约有60种技术水平方面各不相同的风险评估工具。这些风险评估工具通常使用静态变量包括被定罪者的年龄、工作经历和先前的犯罪记录,创造一个衡量再犯风险的分数。据该领域的专家介绍,使用机器学习进行风险评估量化工具目前处于开发和实施的早期阶段。


专家同时指出,机器学习对改善判决结果有很多潜在的好处。例如,一项政策模拟表明,如果根据(取保候审和量刑风险评估)工具的输出做出判决,监狱人数可减少42%,犯罪率不会增加,包括暴力犯罪。


在刑事司法中使用AI的挑战


专家们指出,在支持刑事司法领域的警情预测、人脸识别和风险评估方面,人工智能的进一步演变和采用有四个主要挑战:资源限制、公平和人群偏见、机器学习的透明度和准确性、隐私和公民权利有关事项。


1

资源限制


人工智能的应用,包括警情预测和人脸识别技术,需要许多执法机构可能不具备的资源。例如,由于警情预测地图不断变化,执法人员必须能够在执勤时经常在巡逻车上实时检查地图,以便警情预测软件的结果实现最佳用途。这就要求执法人员的移动终端具有GPS功能,使其在行动时保持互联网接入,并且终端上必备的软件或基线功能都能够与警情预测软件连接。一些执法机构没有符合这些要求的设备,因此无法利用AI技术。


此外,AI系统可能会要求执法人员学习使用新工具,这些都需要培训和时间。此外,为了创建或维护执法人员将使用的软件,一些机构将不得不配置专职员工或雇用新员工,他们可能没有此项经费。而且,为警情预测软件所配置的解析数据工作人员都需要具备数据分析技能,而某些机构可能没有经费来支付培训费用。


2

公平和人群偏见


执法程序中使用的算法可能会通过利用含有偏见信息的数据加剧种族偏见,这引起了外界对公平和人群偏见的担忧。以这种方式使用数据可能被用来污蔑(特定的)社区或人群。例如,用于开发人脸识别技术算法训练集的构成可以影响算法最擅长检查的照片种类。如果训练集偏向某个种族群体(编者注:如非裔、拉美裔等),与其他种族群体的个体相比,该算法可能会更好地识别该群体的成员。另一个例子是,民权团体担心警情预测系统没有得到充分的审查和持续监控,以评估执法人员是否故意针对特定的社区。这些团体认为,警情预测算法可能导致有色人种社区的加重定性定罪,让政府将执法活动进一步集中在这些社区。


3

机器学习的透明度和准确性


由于制造软件和构建算法的技术公司缺乏透明度,专家们担心很难确认机器学习技术的准确性。此外,抛开商业惯例,许多机器学习技术存在固有的局限性。例如,许多早期的AI执法方法都是专有的,并且它们的算法并不对公众开放。


另外,政府问责办公室(GAO)及其他一些机构已经对系统准确性的有限测试进行关注。2016年,政府问责办公室发现联邦调查局对其人脸识别能力的准确性进行了有限的测试。例如,该机构尚未采取措施确定合作伙伴执法机构的人脸识别技术系统是否足够准确,并且没有扩大化地将无辜的人作为调查线索。政府问责办公室建议联邦调查局采取措施提高透明度,并更好地确保根据隐私保护法律和政策要求使用人脸识别功能,并确保人脸识别技术系统足够准确。


4

隐私和公民权利有关事项


刑事司法部门使用人工智能对隐私和公民权利造成影响似乎非常普遍。例如,参加2009年美国司法部国家司法研究所警情预测研讨会的研究人员和执法人员强调需要制定隐私政策,以确保(AI)技术使用的合理性。这些与会者主要关注如何确保警情预测技术符合隐私法律和政策。


同样,乔治敦隐私与技术法律中心2016年的一份报告指出,执法机构没有采取适当的措施来保护隐私,而且人脸识别技术的执法使用不受管制,也很少因滥用而被审查。这份报告的作者敦促社团领导人推动人脸识别技术政策和立法,以保护隐私、公民自由和公民权利。政府问责办公室还报告了与联邦调查局使用人脸识别技术有关的类似问题,包括没有采取足够的措施来监督技术的使用和确保它使用的外部数据库的准确性。


AI在刑事司法执法中的未来


虽然能展示的证据很有限,但人工智能正在加强刑事司法领域应用,该技术的吸引力非常广泛。随着其使用和技术能力的扩大,可能会有一些改进包括提高准确性、实时使用AI以及跨不同媒体形式的使用能力以及更有效地使用该技术。特别是随着更好和更具相关性的数据被收集,人工智能预测的准确性可能会提高。

你可能感兴趣的:(2018-06-10)