当一切旧的都是新的:如何审计人工智能的种族偏见

当一切旧的都是新的:如何审计人工智能的种族偏见
作者: 艾伦·米. 亨特
发表日期: 12月6日

你可能不知道,但人工智能(AI)已经以某种有意义的方式影响了你. 是否批准贷款, 在招聘过程中移动你的简历, 或者为你的网上购物表推荐商品, 人工智能触及我们所有人——在某些情况下, 结果会比在你的病历里多写一项严重得多.

随着这项技术的普及, 我们发现,也许它比我们想象的更人性化. 人们发现,人工智能算法在用于决定资源分配时存在种族偏见 卫生保健, 刑事审判治安. 在速度和效率上, 人工智能放大了人类的偏见,并将其置于聚光灯下,这些偏见已经融入并成为“黑匣子”的一部分. (想要深入了解人工智能和种族偏见,请阅读这本书, 自动化的不平等, 数学毁灭武器, 压迫算法:搜索引擎如何强化种族主义.)

作为审计人员,什么是应对人工智能的最佳方法? 当我们的组织设计和实施人工智能的使用时,我们在哪里以及如何为他们带来最大的价值? 审核员需要成为设计过程的一部分,以帮助建立清晰的治理原则和清晰的文档化流程,以便其组织及其业务合作伙伴使用AI. 因为人工智能不是静态的,它永远在学习. 审计人员需要采取灵活的方法,对人工智能的实施和影响进行持续审计,以提供保证和防范种族偏见.

设计和治理:“在接近新事物时,不要抛弃过去”
在美国,我们倾向于认为奴隶制的影响随着内战的结束而结束. 它没有. 我们也愿意相信,具有里程碑意义的美国最高法院布朗诉奥巴马案. 教育委员会给予每个人同样的教育机会. 它没有. 1964年民权法案第七章的通过是为了制止就业歧视. 它没有. 尽管如此, these “old” concepts of fairness 和 equality are still valid 和 are what is needed to be incorporated into the new AI; first, at the design 和 governance level; 和 then at the operational level. 作为审计师, 你应该问,关于人工智能的使用,组织的治理原则是什么? 首先可以建议您的组织采用 经合组织人工智能原则.

这些原则是只适用于组织还是也适用于其第三方和其他业务伙伴? 这些原则如何与组织的价值观和行为准则相一致? 使用不符合这些原则的人工智能会带来哪些风险? 进行影响评估以帮助建立偏见影响陈述可以帮助建立这些原则. (见 模型行为:减轻公共部门机器学习应用中的偏见 为审计师在设计阶段可以提出的八个具体问题提供帮助,以减少人工智能中的偏见). 其他需要考虑的资源有 在一年的科技丑闻之后, 我们对人工智能的10条建议, 算法偏差检测和缓解最佳实践 以及减少消费者伤害的政策
算法影响评估:公共机构问责制的实用框架.

执行和影响:“当前进失败时,将其向后放置”
审计人工智能的最大挑战是人工智能本身的本质——我们并不完全了解黑盒是如何工作的. 此外,它昨天做出的决定可能与今天不一样. 在考虑实现和影响时,出现了一些框架(参见ISACA的框架) 审计人工智能 IIA的《澳门赌场官方下载》; 部分 & B部分.)看看其他人是如何应对这一挑战的, 看看公共部门的众多研究项目可能会有所帮助. 不管使用什么方法, 因为人工智能一直在学习, 将需要一种提供持续审计的敏捷方法,以保证不存在种族偏见.

编者按: 有关未来十年人工智能的前瞻性观点,请参阅ISACA的报告 下一个科技十年:展望21世纪20年代 研究.

ISACA年度报告

2023
复选标记

2022
复选标记

2021
复选标记

2020
复选标记

2019
复选标记