随着 ChatGPT 的推出再次将人工智能治理推向讨论前沿,IAPP和FTI咨询公司通过将“人工智能治理现状与隐私管理”重叠研究发现,人工智能的主要风险在于负面偏见以及相关法律政策的缺乏。虽然,目前各个国家都已推出了各种各样的法律框架,但具体标准尚未出现,因此企业就人工智能风险制定的应对措施仍处于模糊阶段。
隐私管理和AI治理报告:AI稳步增长带来新挑战
报告对120位隐私安全领域的技术专家进行调查,发现只有20%的受访者其所属企业基于现有的隐私管理计划建立了AI治理策略,有10%的受访者表示还没有制定任何计划。报告还预计未来五年AI产业将以每年25%的速度增长,因此人工智能治理计划的建立是非常必要的。报告认为,企业建立AI治理计划的主要障碍在于缺乏有效工具和人才。目前,人工智能的治理工具仍处于早期开发阶段,无法满足企业需求。
人工智能治理的主要风险
“负面偏见”是企业主要关注的人工智能治理风险之一,报告显示大部分受访者都认为人工智能会“高概率”产生危害,当然,这种偏见不具有代表性,是一种无意识偏见。因此人工智能治理风险和隐私管理的定义需要一个标准,也需要确定风险指标,明确相关检测工具或技术标准。
“糟糕的治理”与偏见一样属于普遍的风险问题。除了会带来各种风险外,还可能导致治理预算膨胀。受访中参与隐私管理计划的个人表示,他们对数据管理规范转化为人工智能系统算法表示怀疑。也有受访者表示,正在寻找针对人工智能系统中处理个人数据固有风险量的明确策略,并希望未来人工智能评估和责任分配可以被嵌入劳动力培训计划中。
同时,缺乏法律明确性也是主要风险之一。如今许多国家或地区都在颁布新兴的隐私管理法规,而人工智能的治理要求只会让隐私管理更加复杂。一方面,不同的监管机构拥有不同的统计评估工具;另一方面,行业缺乏统一的基准。总的来说,许多受访者表示,他们对人工智能以及治理责任的整体理解仍然浅薄。
人工智能治理的最终形态难以预测
目前,即使人工智能的使用可能会在未来五年内突飞猛进,但人工智能治理仍旧面临人才短缺问题。同时,人工智能还存在着未经允许使用受版权保护的信息或材料、人工智能系统被攻击等潜在风险。
虽然,如美国NIST AI 风险管理框架草案、欧盟可信AI评估列表、英国ICO的人工智能和数据保护风险工具包等AI治理框架已经在流通,但全球通用的普遍标准尚未出现。
同时,在企业如何触发人工智能评估因素方面,仍然存在广泛的差异。只有30%的受访者表示已经拥有正式流程,但这些流程的运作方式各不相同。有些在AI应用程序中使用个人身份信息时进行评估,又或在每次添加数据源时进行AI审查,或在AI评估时触发隐私评估。
还有80%的受访者表示,人工智能伦理准则仍然是一个战略概念,目前并未形成具体的职责或细节。就现有的隐私管理责任而言,许多企业表示,在获取数据和遵守数据管理要求之间取得平衡存在一定困难。
-
3周前
-
2024-10-24
-
2024-09-25
-
2024-08-22
-
2024-08-22