通过尼基·罗哈斯 , 哈佛公报
人工智能是否应该用来改善法庭的决策?根据发布在 arXiv 在预印本服务器上,人工智能算法的一个例子不仅无法提高司法判决的准确性,而且该技术本身的表现还比人类差。
“许多研究人员都关注算法是否存在偏见或人工智能是否存在偏见,”合著者、政府和统计学教授 Kosuke Imai 指出。 “他们没有真正研究人工智能的使用如何影响人类的决策。”
虽然刑事司法、医学甚至商业等多个领域都使用人工智能建议,但人类通常是最终决策者。研究人员通过将单个法官做出的刑事保释决定与人工智能系统生成的建议进行比较来考虑到这一点。研究人员专门分析了人工智能对于是否应该实行现金保释的影响。
这项随机对照试验在威斯康星州戴恩县进行,重点关注被捕者是否以自己的担保方式获释或接受现金保释。由今井和哈佛法学院公共法教授吉姆·格雷纳 (Jim Greiner) 领导的研究人员将目光投向了一位法官在 2017 年年中至年底 30 个月内举行的听证会。 2019 年的数据。还分析了长达 24 个月后被告的逮捕数据。
结果表明,仅人工智能在预测再犯方面的表现比法官差——在本例中,通过对现金保释施加更严格的限制。与此同时,人类单独决策和人工智能辅助决策的准确性几乎没有差异。在略高于 30% 的案件中,法官拒绝了人工智能的建议。
“我对此感到惊讶,”格雷纳说。 “鉴于我们引用的证据表明算法有时可以胜过人类的决定,看起来好像这个算法被设置得太严厉了。人们过度预测被捕者会行为不端,预测他们会做出错误的决定。”这样做太频繁了,因此建议采取过于严厉的措施。”
教授们认为,这个问题可以通过重新校准算法来解决。
“与人类相比,算法或人工智能更容易理解并修复,”今井说。 “改变人类或理解人类为何做出决定要困难得多。”
这里研究的人工智能并没有专门考虑种族,而是关注年龄和与过去犯罪经历相关的九个因素。今井是一位利用统计模型来揭露种族不公正行为的专家,他将现金保释方面的不平等归因于多种社会因素,特别是与犯罪历史有关的因素。
他承认这项研究的结果可能令人担忧,但他指出人们也存在偏见。 “人工智能或算法的优势在于它可以变得透明,”他说。关键是拥有易于进行实证评估和分析的开源人工智能。
格雷纳说,应该研究刑事司法系统目前使用人工智能以及不受指导的人类决策的方式,以期做出改进。 “我不知道这是否让人感到安慰,”他说道,“但对于那些害怕或怀疑人工智能的人来说,我的反应是害怕和怀疑人工智能,但可能更害怕或怀疑不受指导的人类决策。 ”
他补充说,应该研究刑事司法系统目前使用人工智能的方式以及不受指导的人类决策,以做出改进。
更多信息: Eli Ben-Michael 等人,人工智能能否帮助人类做出更好的决策?实验评估的方法框架, arXiv (2024)。作者:10.48550/archiv.2403.12108
期刊信息: arXiv
由...提供 哈佛公报
本文由哈佛大学官方报纸《哈佛公报》提供。欲了解更多大学新闻,请访问Harvard.edu。