人工智能伦理和可解释人工智能(XAI):说起来容易做起来难

盖·皮尔斯
作者: 盖·皮尔斯,CGEIT, CDPSE
发表日期: 9月6日

越来越多的人工智能(AI)支持者提出,将道德与人工智能结合起来,将使客户更好地参与这项技术. 鉴于伦理是一个积累了超过7年的庞大的知识体系,在地球上如此不同的文化中, 第一个问题必须是, “谁的道德?,紧接着是“什么道德。?”

人类是否能够就一份普遍的道德对错清单达成一致,并将其融入相对较新的人工智能领域? 通常,起草一份道德准则的清单都是从一个 假设 这些原则被普遍接受.

事实上, “如果存在一套适用于所有文化的普遍伦理原则, 哲学, 信仰和职业, 它将为对话提供一个宝贵的框架.” 拉里Colero 无意中,他发现自己处于这个试图建立普遍伦理框架的中心, 哪一个。, 20多年后, 没有受到他所期望的那种无休止的争议吗. 然而, 20年是7年的零头,千年的努力, 因此,现在确定它开始普及到什么程度还为时过早, 除了没有接触过世界上所有的文化来验证.

So, 当人工智能供应商提到道德时, 他们不是指他们的地区吗, 文化行为和正确的信念, 而不是绝对的道德准则? 对于供应商来说,准确的说法是,人工智能正在被编程时考虑到地区文化规范——如果这真的发生了——而不是暗示普遍真理已经被认同并编程到人工智能中. 鉴于这种, 对于声称其人工智能符合道德标准的供应商,有三个测试是列出所应用的道德原则, 表明道德原则是普遍的,而不是区域性的,并证明这些原则在决策中得到体现. 如果这些测试没有合适的答案,那么这一切都只是炒作.

什么是绝对的,道德决策是有背景的. 只要伦理决策的背景发生变化,伦理决策也会发生变化. 所谓道德人工智能的另一个问题在于,机器将做出道德决策. 假设普遍的道德规范已经被编程到人工智能中, 如果机器和它的人类创造者都不理解如何以及为什么做出决定呢? 由于缺乏透明度,机器怎么可能被信任呢?

输入的新品, 寻找可解释的人工智能, 这个领域在20世纪80年代人工智能的一个冬天衰落了, 但随着机器学习技术的进步,这种情况再次出现. 它的出现有助于解释当今人工智能中固有的黑箱现象, 哪一个。, 如果成功, 能帮助人们建立对人工智能机器的信任,这是这种模式的一个重要好处吗.

然而,到2020年,a XAI的部署和最终用户透明度之间的差距 继续存在. 它被视为开发人员和产品经理之间的怨恨努力,他们更热衷于将产品推向市场,而不是了解产品的工作原理. 在不同的涉众之间,XAI的目标也存在显著差异. 这使得XAI的实现比预期的更加复杂. 在医疗保健领域,一些人甚至认为人工智能的好处超过了对XAI的需求.

在实践中,XAI的总体目标目前很难作为一种机制来实现 可理解、可信赖、可控制的人工智能. 更, 用于更复杂的机器学习算法的XAI技术使用起来非常复杂, 有些需要深厚的统计和数学经验才能应用.

也就是说, XAI是目前我们所追求的,试图理解我们的人工智能, 这是帮助别人所需要的最低限度的努力 建立信任 我们的人工智能可以在复杂的道德状况下做出适当的决定. 这仍然是我们唯一的手段,让人工智能驱动的道德决策“如何”和“为什么”可供后续审查, 因此,在走向日益智能的技术的道路上,使学习能够更多地了解道德决策过程.

编者注:关于这个话题的进一步见解,请阅读盖伊·皮尔斯最近在《澳门赌场官方软件》上发表的文章, “可审计和可解释人工智能的焦点,” ISACA杂志,第4卷2022.

ISACA杂志 今年满50岁! 与我们一起庆祝,不要忘记,您仍然可以通过访问您的 偏好中心 选择加入!

ISACA杂志

ISACA年度报告

2023
复选标记

2022
复选标记

2021
复选标记

2020
复选标记

2019
复选标记