小心人工智能应用中的隐私侵犯

盖·皮尔斯
作者: 盖·皮尔斯,CGEIT, CDPSE
发表日期: 2021年5月28日

2023年1月30日更新

有人提出,”隐私对选民来说很重要, 聪明的澳门赌场官方下载关注的是如何在遵守监管规则的同时利用数据来发现信息.因为“聪明的澳门赌场官方下载”也包括作为雇员的“选民”, 至少有一个亟待解决的问题是,人工智能(AI)等技术中的隐私或道德违规行为对员工来说是否真的足够重要,因为他们可能更关心的是养家糊口,而不是提出担忧或进行举报, 对他们的工作有潜在的负面影响? 如果这个国家, 地区, 或者这个行业太不成熟,没有有意义的监管规则需要遵守? 那么,这是否就变成了几乎什么都不做的情况呢? 毕竟,在这种情况下,“聪明的澳门赌场官方下载”不会违反任何法律.

此外,考虑到 法律对许多隐私问题都保持沉默, 仅仅遵守法规——其中一些可能已经严重过时,与技术进步不一致——真的是“聪明澳门赌场官方下载”尽职调查的充分形式吗?“更重要的是,当地的隐私法可能没有任何效力 设在其他司法管辖区的组织 基于人工智能的隐私法违反了当地公民.

如果隐私监管和合规真的足够的话, 那为什么98%的美国人仍然觉得他们 应该有更多的控制权 分享他们的数据, 为什么79%的印度居民仍然对将他们的数据出售给第三方感到不舒服, 为什么世界上74%的人仍然对他们的数据表示担忧? So, no, 监管规则肯定没有一些人想象的那么有效, 尤其是对“聪明的澳门赌场官方下载”来说.换句话说, 对于真正智能(和道德)的澳门赌场官方下载来说,仅仅遵守隐私是必要条件,但完全不够.

介绍人工智能(AI)隐私保护挑战

可以说,聪明的澳门赌场官方下载会寻找技术帮助他们实现战略目标的方法, 建立人工智能系统, 虽然还在萌芽阶段, 可能适合某些用例. 然而,组织几乎没有动力“……在他们的系统中建立隐私保护”. 近年来,重大的隐私泄露事件上了令人窒息的头条新闻,但最终 放射性尘埃很少 对于负责任的公司.”

从隐私设计的角度来看,人工智能和隐私没有什么不同 不是最重要的 人工智能技术的发展. 有一个 高的风险 个人在人工智能处理个人数据中的权利和自由, 这与数据泄露带来的风险完全不同, 但对负责任的公司也几乎没有“影响”. 一些 隐私的挑战 人工智能的发展趋势包括:

  • 数据持久化— 由于数据存储成本低,数据存在的时间比创造它的人类主体还要长
  • 数据再利用- 数据的使用超出了最初设想的目的
  • 〇数据溢出效应 收集非数据收集对象的数据

通过人工智能收集的数据也引发了隐私问题,比如自由给予知情同意, 可以选择退出, 限制数据收集, 描述人工智能处理的本质, 甚至可以根据要求删除数据. 然而, 人类受试者如何收集数据, 也许考虑到溢出效应, 即使知道他们的数据被收集,也能够对组织的数据进行任何查询, 或者要求删除它?

适用于欧盟(EU)科目, 《澳门赌场官方软件》第22条, 有一些例外, 要求, “数据主体有权不服从完全基于自动化处理的决定, 包括分析…… .“这对欧盟主题背景下的自动人工智能算法意味着什么, 注意到人工智能过程中的任何人为干预——也许是为了绕过完全自动化的处理要求——都不能是捏造的,必须有显示出真正影响的结果?

人工智能与对隐私和民主的威胁

2017年, 经济学家发现 世界上一半的国家在民主方面的得分低于前一年, 主要是因为人们对政府和公共机构的信心受到侵蚀. 与此一致, 根据《导演日记, in 2017, 加拿大第28任总督明确指出,不信任机构的全球模式日益增长,令人“不安”, 同年首次发现不到一半的加拿大人信任他们的政府, 业务, 媒体, 非政府组织, 以及他们的领导人.

Facebook用户心理特征的作用, 以及2016年美国总统大选中剑桥分析公司丑闻对人工智能隐私的影响, 进一步削弱了人们的信心, 以及对民主的威胁 继续受到人工智能的推动 操纵民主杠杆. 再举一个例子,美国Clearview AI公司 违反加拿大隐私法 通过收集加拿大成年人甚至儿童的照片,在未经他们同意的情况下进行大规模监控和面部识别, 用于商业销售, 只会进一步降低人们对人工智能澳门赌场官方下载的信任和信心, 以及降低对整个国家适当指导与隐私和人工智能相关事务的能力的信任和信心. 顺便说一下 独立、平行的调查 在澳大利亚和英国的Clearview AI. 

加拿大隐私专员办公室(OPC)对上述问题的一份报告指出,信息抓取似乎 违反服务条款 例如,Facebook、YouTube、Instagram、Twitter和Venmo(第6节).ii.). 此外, 而Clearview人工智能声称这些信息在互联网上是免费的,所以不需要征得同意, 的 OPC发现明确同意确实是必需的 对于特别敏感的生物特征信息, 和/或当集合, 使用或披露“超出个人的合理预期”(第38和40条)。.“毫无疑问,面部信息是最敏感的个人数据之一, 一个理性的人真的会同意他们最敏感的数据吗, 他们的生物特征数据, 被商业组织使用,数据可以用于任何地方, 在未来,这个目标可以无限地变成其他任何东西(数字是永恒的)? 当然不是.

鉴于“(数据)是…… 人工智能的命脉,“一些最敏感的数据是个人身份信息(PII)和受保护的健康信息(PHI)。. 因此,我们需要检查人工智能使用PII和PHI的程度, 包括生物识别技术, 以及是否采取了适当的谨慎措施来确保, 例如, 民主的杠杆不是被操纵的.

介绍人工智能发展中潜在隐私侵犯的主动识别

那么,我们如何开始确定在人工智能部署中隐私是否受到保护呢, 人工智能的一个关键挑战是其算法的可审计性? 人工智能算法是否不断适应新信息, 我们怎么知道人工智能系统真的在计算我们认为它在计算的东西呢, 它从监管和道德的角度保护隐私?

A 主要关心的 人工智能有可能复制、强化或放大有害的偏见. 根据所执行的数据收集的性质,这种偏差可能会扩散, 这一过程也可能导致前面一段介绍的溢出效应等问题.

用于识别隐私和其他弱点的现有审计方法的挑战在于,只有在系统部署之后才能识别风险, 当一个 负面影响已经显现. So, 而内部审计通常通常作为足够的第二道控制线, 以人工智能为例, 审计只是作为必要的,但不充分的控制. 事实上,需要一个更广泛的制衡体系来补充人工智能审计. 由于可能的人工智能审计框架是SMACTR,审计从业者也可能考虑 COBIT 作为起点,发展:

注意,问责制不仅是一个治理结构,而且是DSS06.05包含一个隐私结构(尽管是有限的),涉及数据和数据结果保留要求的确定和实现. 这是因为当收集和处理这些数据的原始目的到期时,保留个人身份数据和信息就变成了一个隐私问题.  

AI环境中的隐私

人工智能背景下的隐私与一般的数据隐私有不同的考虑. 在人工智能领域保护隐私的挑战之一是,如何制定适当的法规,既保护隐私,又不扼杀人工智能技术的进步. 利害攸关的数据上下文是使人工智能工具能够了解其环境的扫描机制, 以及数据本身的性质以及如何使用它来创建人工智能功能. 以这篇博文中提出的溢出效应为例, 对于希望使用个人数据的组织来说,传统的同意要求很弱, as 的re is no consent acquired in spillover data collections; 的 victims of spillover data have no say in 的 matter as 的y do not even know 的y’re involved.

同意也不像人们可能被引导相信的那样是一个强大的工具, 即使同意的要求是知情和自由地给予. Clearview人工智能的例子表明,OPC并没有尽可能多地征求用户的同意. 举个类似的例子,微软 删除它的数据库 1000万张面部照片,这些照片被IBM等公司使用, 松下, 阿里巴巴, 军事研究人员和中国监控公司——因为数据集中的大多数人并不知道他们的图像被包括在内.  

就民主而言, 需要更深入监管和/或政策关注的两个问题不仅涉及为人工智能工具收集或访问的数据来源, 还有数据是如何被用来影响党派结果的. 事实上,党派结果至少与上述原则中的一个相矛盾 隐私设计的7大支柱, 目标是实现积极的结果,而不是一个政党以牺牲另一个政党为代价赢得胜利, 后者产生的是零和结果,而不是期望的正和结果.   

虽然大多数组织在使用敏感个人信息时可能会考虑隐私遵从性和道德规范, 在人工智能领域, 这些挑战在内容和规模上都有很大的不同. It治理专业人员和隐私专业人员都要确保这些基于人工智能的隐私挑战受到适当的监督. 

编者注:要了解ISACA提供的更多隐私资源, 了解认证数据隐私解决方案工程师(CDPSE)证书.

ISACA年度报告

2023
复选标记

2022
复选标记

2021
复选标记

2020
复选标记

2019
复选标记