数字伦理日益重要

数字伦理日益重要
作者: Chris Dimitriadis博士.D., CISA, CISM, CRISC, ISACA首席全球战略官
发表日期: 2019年5月29日

技术的创新能力以及这种技术的潜力正以惊人的速度向前发展, 在当今的数字经济中创造新的可能性. 这基本上是很棒的, 有一个很大的警告:我们必须记住,仅仅因为我们有能力部署一项新的技术创新,并不意味着我们 应该. 对于所有关注自己在社会上留下的印记的组织来说,优先考虑数字道德的必要性变得越来越重要.

新技术——尤其是人工智能——正在以变革性的方式被利用,这需要围绕这些部署的伦理考虑进行更深入的讨论. 这取决于组织及其实现这些技术的目标水平, 这甚至可能包括需要一名首席道德官,以确保这些问题得到组织高层的适当关注. 并不是每个组织都需要或有能力投资于一个监督道德的新角色, 但实际上,所有组织都应该让他们的首席信息安全官——或其他安全领导——投入足够的时间来预测和解决他们组织的技术创新如何可能被恶意的人滥用.

上个月,欧盟委员会迈出了有价值的一步,承认了这一新的必要性, 提出了一系列建议 这强调了安全可靠的算法和数据保护规则的必要性,以确保商业利益不会优先于公众的福祉. 作为欧盟委员会的数字主管, 安德鲁斯·安西普, 把它, “人工智能的伦理维度不是一个奢侈的功能或附加功能. 只有有了信任,我们的社会才能充分受益于技术.“在全球其他地方,澳大利亚政府都是这样 探索政策 以确保负责任地开发和应用人工智能. “人工智能有潜力提供真正的社交, 经济, 环境效益——促进澳大利亚的经济增长,直接改善人们的日常生活,凯伦·安德鲁斯说, 该国工业部长, 科学技术. “但重要的是, 我们需要确保人们听到他们在隐私等领域可能与人工智能有关的任何道德担忧, 透明度, 数据安全, 问责制, 和股票."

而政府机构绝对应该在应对这些新挑战方面发挥主导作用, 需要采取更全面的全球应对措施. 令人鼓舞的是, 学术界的一些角落正在认识到这一挑战并采取行动, 其中包括斯坦福大学和麻省理工学院 大量投资 以人为本的人工智能教育. 现有的专业人员也需要指导,如何解释人工智能加速使用的伦理影响. 人工智能被恶意利用的可能性引起了全球研究人员和行业领导者的深切关注, 然而,在构思和开发产品时,很少有人给予应有的考虑. 容忍这种疏忽的风险正变得太高. ISACA对数字化转型的研究表明,社会工程, 被操纵的媒体内容, 数据中毒, 政治宣传和对自动驾驶汽车的攻击占据主导地位, 当涉及到恶意训练的人工智能构成的威胁时,安全从业者最关心的问题.

新兴的数字道德问题正在影响许多行业, 其中许多具有固有的公共健康和安全后果, 比如军事训练, 医学研究和执法. 几乎所有行业都受益于技术进步,有可能为社会带来巨大利益, 但也面临着严重的道德问题,这些问题不应被忽视. 公布的数据 从近70岁,000名OkCupid用户在事后掀起了一场道德风暴,讨论数据收集和公开发布的方式应该被认为是光明正大的. 警方正日益面临艰难的抉择,要在新的监视能力与他们有责任保护的人的隐私权之间取得平衡. 虽然人工智能最近在数字伦理方面引起了很多关注,这是可以理解的, 数字化转型带来的伦理挑战远不止这些. 另一项新兴技术, 增强现实, 引发了几个道德灰色地带, 其中最重要的是如何看待经验中哪些方面是真实的模糊界限. 区块链的实施也为道德难题打开了大门, 比如如何在区块链上记录私人信息 可能被利用. 在未来的十年里,道德方面的考虑将变得更加突出, 随着量子计算的进步变得更加清晰, 引发涉及敏感信息的新的道德和安全风险, 加密的数据.

这些只是专业人士及其组织在数字化转型时代需要准备的严重问题的一部分. 越来越多地采用人工智能和其他高影响力技术带来了值得高度乐观的好处, 但是风险, 太, 在增加. 组织应该对公众负责,确保创新的热潮不会使新部署的趋势或潜在盈利能力成为是否应该批准的唯一衡量标准.

编者按: 本文原载于 方案.

ISACA年度报告

2024
复选标记

2023
复选标记

2022
复选标记

2021
复选标记

2020
复选标记