美政府已警惕人工智能对司法影响,准备这么干【斑斓 · AI】

陈志宏等 法影斑斓 2018-05-29

编 译|陈志宏、薛晓芳

▲ 美国政府问责办公室(GAO)发布的

《人工智能:新兴机遇、挑战和影响》报告

【编者按】美国政府问责办公室(GAO)在3月28日发布了《人工智能:新兴机遇、挑战和影响》报告,报告主要总结了基于GAO 2017年7月总审计长召集的人工智能论坛内容,该论坛召集了来自人工智能行业、政府、学术界和非营利组织的专家、学者和官员,集中讨论了关于人工智能在四个领域:网络安全、自动驾驶、刑事司法和金融服务领域的发展潜在影响。本篇侧重介绍人工智能在刑事司法中的当前和潜在应用、面临的挑战,分析其未来应用场景及政策考虑,为我国未来发展人工智能司法应用提供借鉴。


工智能(AI)正以各种方式改善人类生活并解决社会最紧迫问题。同时,AI也带来新的风险,取代工人并扩大社会经济不平等等问题。为更好地理解AI发展带来的新机遇、挑战和影响,美国总审计长于2017年7月6—7日在华盛顿召开了AI论坛。论坛上,来自行业、政府、学术界和非营利组织的与会者考虑了AI技术带来的整体好处和挑战以及潜在影响。与会者认为,AI为经济和社会带来越来越多好处,但相关的机遇和挑战需要更多研究来支持,AI对相关领域政策也产生较多影响。


与会专家的主要观点




AI的演变与特点

当今常见的AI技术包括专家系统、机器学习、自然语言处理和计算机视觉


AI无单一的普遍定义,而是不同的定义和分类法。罗素和诺维格将人工智能定义为1.计算机或机器;2.试图理性行事和思考;3.像人类一样行事;4.像人类一样思考。计算机或机器是理性的代理人,目的是通过感知和采取行动来实现目标。试图理性行事和思考是基于形式逻辑,旨在从逻辑上解决问题,进行推理并优化结果。像人类一样行事是被设计成人类行为的系统,是智能的概念化形式,后被普及为图灵测试,涉及自然语言处理、知识表示、自动推理和学习测试。模拟人类思维是受认知科学的启发。


可解释的AI将提供对机器学习系统

决定/行动背后推理的认知


此外,AI是建立在机器可用来模拟人类智能的想法上,可分为狭义和普遍AI。狭义AI是指提供特定领域专业知识或任务完成的应用程序,如税务软件和在线“聊天机器人”。普遍AI是AI系统表现出的类人类或超人类的智能。普遍AI的虚构例子包括电影2001:A Space Odyssey的计算机H.A.L.和来自“星际迷航:下一代”电视系列节目的中尉指挥官。


AI的发展也被分为三次浪潮:1、专家系统,计算机基于专家知识或标准进行编程,并产生与该编程相一致的输出。税收或物流软件是专家系统的例子;2、基于数据的统计或机器学习,根据数据准确预测规则或决策程序。最近,基于机器学习的AI技术提高了数据集的可用性和计算能力。自动驾驶车辆是机器学习系统的例子;3、未来的AI,结合了第一次和第二次AI系统的优势,同时还具备情景意识、推理和解释能力。未来AI的一个例子是一艘船可在无人干预下一次航行几个月,同时感应其他船只,驾驶海上航道并执行必要任务。AI的第三次浪潮在特定领域胜过人类,但有关专家认为近几十年可能不会实现。在AI技术发展期间,需要重点考虑相关政策和研究,并解决AI带来的挑战。


▲ AI发展的三次浪潮


AI带来的整体好处和挑战

好处:改善社会经济并提高生产力水平;改善或增强人类决策;并为社会和经济复杂和紧迫的问题提供见解和潜在解决方案;以及完全无法预测的益处。


挑战:收集和分享AI所需的可靠和高质量的数据;充足的计算资源和人力资本;确保AI系统的完备法律法规,确保AI不侵犯公民自由;制定管理AI使用的道德框架,确保AI系统的行为和决定可被使用者人解释和接受。


AI的政策问题

考虑AI的益处和挑战后,与会者强调需要进一步关注的有关AI的政策问题。


激励数据共享,需要提供分享敏感信息的机制,包括知识产权、个人数据和品牌信息,同时也保护公众和制造商利益;


• 提高安全性和保障性,需要建立制造商和用户间分担安全保障成本和责任的框架;


• 更新监管方法,利用技术来改善监管并评估结果;


• 评估可接受的风险和道德决策,建立一个机制来评估折衷方案并对AI系统性能进行基准测试。


AI的研究领域

需要进一步关注的AI研究领域:


• 建立实验监管沙箱,开发用于在另一个监管框架中测试AI产品、服务和商业模式的机制;


• 开发高质量的标签数据,提供机制来提高数据质量并开发用于培训系统的标记数据,目标是减少偏见并提高预期成果的产量;


• 了解人工智能对就业、培训和教育的影响,需理解AI对就业的影响,提供必要的教育和培训,以满足当前和未来的就业需求;


• 探索计算机伦理和可解释的AI。需要提供一个框架,为AI研究和开发制定明确的道德准则,包括开发可解释的AI系统,使用户理解AI系统所做行动的原因,建立用户对系统未来行为的信任。


▲ 人工智能(AI)对政策和研究的启示


人工智能对刑事司法的影响


AI在刑事司法领域中有三个应用。每个应用中算法都将分析工作的一部分自动化。


应用包括:预测犯罪地点,以改善执法资源的分配;通过人脸识别技术帮助识别嫌疑人;确定罪犯量刑后,评估其累犯风险。


好处:AI为刑事司法领域带来改进有限资源和可用数据的使用,提高犯罪嫌疑人识别率,减少犯罪和监狱人数。


挑战:AI也给刑事司法带来一些挑战,如何解决公平和人口偏差,如何确保机器学习的透明度和准确性,以及解决隐私和公民权利问题。


政策影响:未来政策需要考虑如何确保AI算法的透明度,探索评估AI数据和算法的准确性和潜在偏差的方法,考虑在AI系统收集和使用个人信息时保护隐私的解决方案。


AI在刑事司法中的当前和潜在用途


▲ AI在刑事司法中的应用


在刑事司法领域中有三个人工智能的早期应用,提供了如何应用机器学习和建模的示例。在每个应用中,算法都是将分析工作的一部分自动化,以帮助向人类决策者提供输入。这三个应用分别是:(1)预测犯罪发生的可能性,以帮助目标治安管理;(2)通过人脸识别技术帮助识别嫌疑犯;(3)在确定被判定犯人刑期时评估重犯的风险。这三项应用正在美国地方、州和联邦各级政府和各机构包括执法机构和司法机构中使用。


1

警情预测


美国一些地方执法机构正在使用警情预测软件来确定警方干预的可能目标,并预防特定地区的犯罪。


2016年,一项研究报告称,全美国最大的50个警察部门中有20个正在使用警情预测技术,另有11个正在探索如何实践。这些执法机构通过识别关键变量来做到这一点,例如先前犯罪的地点和在这些地点实施犯罪的次数,然后创建算法,预测犯罪风险可能再次高发的地方。


这些算法通常被编码成软件,这些软件相应地会生成地图供执法人员使用。这些地图在执法人员巡逻期间显示高风险犯罪预测的区域,以指导警务资源主动打击指定地区的犯罪活动。在目前的状态下,警情预测使用模型来分析大量的历史犯罪数据。根据一位AI专家的说法,随着更多数据的可用,警情预测软件能够更准确地预测犯罪。


2

人脸识别


美国州和联邦一级的执法机构正在使用先进的人脸识别技术(FRT)来帮助识别嫌疑人。尽管目前还没有关于使用FRT的全国性数据,但最近的一份报告估计,美国四分之一的州和地方执法机构可以对其自己的数据库进行人脸识别搜索,在另一个机构的人脸识别系统上运行这些搜索,或者获准访问这样一个系统


此外,同一份报告还指出,联邦执法机构包括美国空军特别调查办公室、缉毒局、移民和海关执法局以及美国法警服务机构都可以访问一个或多个全国或地方的人脸识别系统。人脸识别技术自动比较两幅或多幅图像,以确定它们是否反映同一个人的脸部。该技术使用算法首先在照片中查找人的脸部,然后从面部中提取特征——这些特征可以进行数字量化,如眼睛位置或皮肤纹理,以便于检查对比。


通过对比后发布反映两张照片中特征相似性的数值分数。关于是否存在匹配,人脸识别技术指向的是更可能或不太可能的匹配,而不是产生“是”或“否”的答案。执法机构主要使用人脸识别来验证个人身份或识别未知个人。例如,联邦调查局(FBI)可以使用人脸识别技术通过将来自安防摄像头或智能手机的照片或视频与包含照片或驾驶证图片的数据库相匹配来识别嫌疑犯。人脸识别技术可以帮助执法机构根据现有照片数据库识别犯罪分子。据一家提供人脸识别技术应用的公司称,这些机器学习算法在被静态部署到终端用户之后可以开发成计算程序,在吸收AI的各个方面新数据时不断更新自己。


3

取保候审和量刑风险评估


司法人员正在使用日益复杂的风险评估工具来帮助提醒取保候审和量刑判决——包括应该入狱多少年的新判决,以及在现有判决服刑一段时间后是否可以假释。


根据马歇尔计划的报告(编者注:马歇尔计划是美国一个无党派、非营利的新闻机构,致力于建立和维持美国刑事司法体系的有序运营),美国各地大约有60种技术水平方面各不相同的风险评估工具。这些风险评估工具通常使用静态变量包括被定罪者的年龄、工作经历和先前的犯罪记录,创造一个衡量再犯风险的分数。据该领域的专家介绍,使用机器学习进行风险评估量化工具目前处于开发和实施的早期阶段


专家同时指出,机器学习对改善判决结果有很多潜在的好处。例如,一项政策模拟表明,如果根据(取保候审和量刑风险评估)工具的输出做出判决,监狱人数可减少42%,犯罪率不会增加,包括暴力犯罪。


在刑事司法中使用AI的挑战


专家们指出,在支持刑事司法领域的警情预测、人脸识别和风险评估方面,人工智能的进一步演变和采用有四个主要挑战:资源限制、公平和人群偏见、机器学习的透明度和准确性、隐私和公民权利有关事项。


1

资源限制


人工智能的应用,包括警情预测和人脸识别技术,需要许多执法机构可能不具备的资源。例如,由于警情预测地图不断变化,执法人员必须能够在执勤时经常在巡逻车上实时检查地图,以便警情预测软件的结果实现最佳用途。这就要求执法人员的移动终端具有GPS功能,使其在行动时保持互联网接入,并且终端上必备的软件或基线功能都能够与警情预测软件连接。一些执法机构没有符合这些要求的设备,因此无法利用AI技术


此外,AI系统可能会要求执法人员学习使用新工具,这些都需要培训和时间。此外,为了创建或维护执法人员将使用的软件,一些机构将不得不配置专职员工或雇用新员工,他们可能没有此项经费。而且,为警情预测软件所配置的解析数据工作人员都需要具备数据分析技能,而某些机构可能没有经费来支付培训费用。


2

公平和人群偏见


执法程序中使用的算法可能会通过利用含有偏见信息的数据加剧种族偏见,这引起了外界对公平和人群偏见的担忧。以这种方式使用数据可能被用来污蔑(特定的)社区或人群。例如,用于开发人脸识别技术算法训练集的构成可以影响算法最擅长检查的照片种类。如果训练集偏向某个种族群体(编者注:如非裔、拉美裔等),与其他种族群体的个体相比,该算法可能会更好地识别该群体的成员。另一个例子是,民权团体担心警情预测系统没有得到充分的审查和持续监控,以评估执法人员是否故意针对特定的社区。这些团体认为,警情预测算法可能导致有色人种社区的加重定性定罪,让政府将执法活动进一步集中在这些社区。


3

机器学习的透明度和准确性


由于制造软件和构建算法的技术公司缺乏透明度,专家们担心很难确认机器学习技术的准确性。此外,抛开商业惯例,许多机器学习技术存在固有的局限性。例如,许多早期的AI执法方法都是专有的,并且它们的算法并不对公众开放。


另外,政府问责办公室(GAO)及其他一些机构已经对系统准确性的有限测试进行关注。2016年,政府问责办公室发现联邦调查局对其人脸识别能力的准确性进行了有限的测试。例如,该机构尚未采取措施确定合作伙伴执法机构的人脸识别技术系统是否足够准确,并且没有扩大化地将无辜的人作为调查线索。政府问责办公室建议联邦调查局采取措施提高透明度,并更好地确保根据隐私保护法律和政策要求使用人脸识别功能,并确保人脸识别技术系统足够准确。


4

隐私和公民权利有关事项


刑事司法部门使用人工智能对隐私和公民权利造成影响似乎非常普遍。例如,参加2009年美国司法部国家司法研究所警情预测研讨会的研究人员和执法人员强调需要制定隐私政策,以确保(AI)技术使用的合理性。这些与会者主要关注如何确保警情预测技术符合隐私法律和政策


同样,乔治敦隐私与技术法律中心2016年的一份报告指出,执法机构没有采取适当的措施来保护隐私,而且人脸识别技术的执法使用不受管制,也很少因滥用而被审查。这份报告的作者敦促社团领导人推动人脸识别技术政策和立法,以保护隐私、公民自由和公民权利。政府问责办公室还报告了与联邦调查局使用人脸识别技术有关的类似问题,包括没有采取足够的措施来监督技术的使用和确保它使用的外部数据库的准确性。


AI在刑事司法执法中的未来


虽然能展示的证据很有限,但人工智能正在加强刑事司法领域应用,该技术的吸引力非常广泛。随着其使用和技术能力的扩大,可能会有一些改进包括提高准确性、实时使用AI以及跨不同媒体形式的使用能力以及更有效地使用该技术。特别是随着更好和更具相关性的数据被收集,人工智能预测的准确性可能会提高


例如,重犯的预测随着时间的推移已经被检验过,包括教育程度和以往的暴力行为等因素。由于监狱自动采集囚犯数据,可以预测囚犯出狱后未来行为的风险评估工具应该有更多的信息进行处理和统计评估,以提高风险评估工具的预测能力。此外,专家还指出,随着人工智能能力的提高,可能会使用人脸识别技术实时通过视频源识别个人身份。


AI运用过程中的政策考虑


从政策角度来看,一些关于警情预测、人脸识别技术和风险评估的专家指出,需要联邦监督来规范在刑事司法领域使用人工智能。专家们在以下三个关键领域提出了潜在的政策影响。


1

透明度


专家们一致认为,对专有算法使用的数据缺乏透明度可能会导致隐私、偏见和准确性问题。因此,专家们认为,加强现有的联邦法规/政策和/或建立联邦监管机构来评估这些AI应用程序的使用可能会有好处。


2

隐私


联邦机构收集和使用个人信息主要受两项法律管辖:1974年“隐私法”修正案34和2002年“电子政务法”的隐私条款,这两项法律都是在广泛使用机器学习执法之前制定的。2009年美国国家司法研究所警情预测研讨会的与会者强调需要制定隐私政策,以确保更新的人工智能应用程序的合法性。一位与会者建议使用隐私影响评估(PIA)制定这样的政策。如前所述,在政府问责办公室关于联邦调查局使用人脸识别技术的2016年报告中,建议该机构采取措施确保在使用或更改系统之前公布隐私影响评估。


3

偏见和准确性


一些专家建议联邦政府建立联邦监管机构,对AI系统的准确性和潜在偏见进行独立评估。例如,乔治敦隐私与技术法律中心的一份报告强调了公平性挑战,并建议国会和州立法机构应规范执法机构使用人脸识别应用程序。报告作者还指出,美国商务部国家标准与技术研究院应该根据种族、性别和年龄定期测试算法偏差,为决策者在多个供应商中进行选择时提供算法准确性和偏见信息。


此外,兰德公司(编者注:美国著名智库)指出,辅助决策系统应该配备审查关键决策背后因果因素的工具。该报告强调,培养公众有关执法算法的能力,同时确保使用的算法易于理解,有助于防止其应用中的不公平和不准确。



感谢您阅读“法影斑斓”,希望它能兼顾新知与审美。如果您觉得图文有点儿意思,请点击右上角按钮,选择“查看公共号”,再点击关注即可。也可搜索微信号:funnylaw1978。如果想阅读过往文章,可点击“查看历史消息”。


何帆出品   扫码关注


    本站仅按申请收录文章,版权归原作者所有
    如若侵权,请联系本站删除
    觉得不错,分享给更多人看到