人工智能的伦理考虑

人工智能的伦理考虑
作者: Lisa Villanueva, CISA, CRISC, CPA, PMP, PSM I, ISACA治理专业实践负责人
发表日期: 2019年8月15日

你有没有停下来想过,我们每天在工作和个人生活中所依赖的技术会带来什么道德后果? 新兴技术的伦理, 比如人工智能(AI), 是本周在2019年GRC会议上讨论的众多引人注目的审计和技术主题之一.

在一个名为“天使还是恶魔”的会议上讨论这个话题, 人工智能的伦理考虑,会议主持人斯蒂芬·沃森说, AuditOne UK的技术风险保证总监, 首先用例子来定义不同形式的人工智能. 例如, 在人工智能的早期阶段,人们最初认为计算机无法在国际象棋或围棋比赛中击败人类. 许多人着迷地发现,计算机确实可以被编程来实现这一目标. 这是窄AI或弱AI的一个例子,其中计算机可以在特定任务中胜过人类.

然而, 主要的人工智能伦理问题和随后的讨论主要集中在人工通用智能(AGI)上。, 机器的智能,它有能力理解或学习人类所能理解的任何智力任务. 一些研究人员将AGI称为“强人工智能”或“全人工智能”,,其他人则将“强人工智能”留给能够体验意识的机器. AGI的目标是模仿人类的推理能力, 这可能, 随着时间的推移, 导致技术或机器人的部署达到一定程度的人类意识. 向观众提出的问题包括:

  • 我们是否应该让人工智能看起来和行为都像我们,并且拥有基本的意识? 大约一半(49%)的受访者表示不同意,这并不是因为他们觉得这不道德或“扮演上帝”,而是因为这会给人一种错误的感觉,即机器是有生命的生物.
  • 既然道德不是客观的,那么它能被编入人工智能吗, 永恒的或普遍的,在不同的文化中会有所不同?
  • 你想让人工智能技术来决定生死吗? 以自动驾驶汽车为例. 汽车是否应该被设定为在不幸的碰撞事件中拯救司机或行人?

在什么情况下,您希望启用agi的设备做出决策? 鉴证专业人士和其他人一直专注于更好地理解人工智能的机制 ISACA提供指导 IT审计人员在人工智能的治理和控制中可以发挥的作用. 然而, 很明显, 在这个发人深省的GRC会议之后, 亦应认真考虑和讨论以下因素,以确保在开发和使用人工智能的过程中,不会忘记这项技术的伦理和道德:

  • 什么规则应该管理程序员, 程序员的经验和道德指南针应该在多大程度上影响AGI对情况和人的反应?
  • 在收集的数据中,人工智能是如何学习和做出决定的?
  • 一旦机器获得了人类理解的能力,如何评估程序和相关算法, 比如Blackbox AI?

会议有意避开对技术机制的深入讨论,以促进对话和思考,以反映其后果, 赞成还是反对, 这种不断增长的技术能力, 未来的发展方向, 以及它对我们的商业和社会生活的影响.

随着时间的推移, 越来越少的技术会被认为是人工智能的一部分,因为它们的能力将被认为是我们日常生活的一部分,我们甚至不会认为它是人工智能. 这被称为 “人工智能效应.” 让我们毫不犹豫地提出棘手的问题,以确保我们在开发和使用这项令人惊叹的技术时负责任和合乎道德,因为它继续融入我们的日常生活,使我们的生活更轻松.

请在下面的评论中分享你对人工智能和其他新兴技术的道德看法. 我们很乐意听到您的声音,并在2020年GRC会议上与您见面, 计划于2020年8月17日至19日在奥斯汀举行, 德州, 美国.

ISACA年度报告

2024
复选标记

2023
复选标记

2022
复选标记

2021
复选标记

2020
复选标记