
卡内基梅隆大学希拉·戴维斯 , 卡内基梅隆大学泰珀商学院
在一篇新论文中,卡内基梅隆大学和史蒂文斯理工学院的研究人员展示了一种思考人工智能决策公平影响的新方法。
他们借鉴了一种被称为社会福利优化的悠久传统,旨在通过关注个人的整体利益和伤害来使决策更加公平。该方法可用于评估人工智能公平性的行业标准评估工具,该工具着眼于受保护群体的批准率。
卡内基梅隆大学泰珀商学院运筹学教授约翰·胡克(John Hooker)解释说:“在评估公平性时,人工智能社区试图确保经济水平、种族、民族背景、性别和其他类别不同的群体得到公平待遇。” ,他是该研究的共同作者,并于 5 月 29 日在瑞典乌普萨拉举行的约束规划、人工智能和运筹学集成国际会议 (CPAIOR) 上发表了该论文。该论文获得了最佳论文奖。
想象一下这样一种情况:人工智能系统决定谁获得抵押贷款批准或谁获得工作面试。传统的公平方法可能只能确保来自不同群体的相同比例的人获得批准。
但是,如果被拒绝抵押贷款对弱势群体的人比对弱势群体的人产生更大的负面影响怎么办?通过采用社会福利优化方法,人工智能系统可以做出为每个人,特别是弱势群体带来更好结果的决策。
该研究的重点是“阿尔法公平”,这是一种在公平和为每个人获得最大利益之间找到平衡的方法。 Alpha公平性可以根据情况进行调整,或多或少地平衡公平性和效率。
胡克和他的合著者展示了如何使用社会福利优化来比较当前人工智能中使用的不同群体公平评估。通过使用这种方法,我们可以了解在不同情况下应用不同群体公平工具的好处。它还将这些群体公平评估工具与经济学和工程学中使用的更大的公平效率标准联系起来。
德雷克·莱本 (Derek Leben) 是泰珀商学院 (Tepper School) 商业伦理学副教授,维奥莱特·陈 (Violet Chen) 是史蒂文斯理工学院助理教授,后者获得了博士学位。来自泰珀学院,共同撰写了这项研究。
莱本说:“我们的研究结果表明,社会福利优化可以揭示人们广泛讨论的如何在人工智能中实现群体公平的问题。”
这项研究对于人工智能系统开发人员和政策制定者都很重要。开发者可以通过采用更广泛的公平方法并了解公平措施的局限性来创建更公平、更有效的人工智能模型。它还强调了在人工智能开发中考虑社会正义的重要性,确保技术促进社会不同群体的公平。
该论文发表在 CPAIOR 2024 Proceedings 上。
更多信息: Violet Chen 等人,通过社会福利优化评估群体公平性, 约束规划、人工智能和运筹学的集成 (2024)。 DOI:10.1007/978-3-031-60597-0_14
由...提供 卡内基梅隆大学泰珀商学院