10月31日,拜登总统发布了一项关于使用和管理人工智能的行政令,以确保美国在人工智能(AI)的发展前景和管理其风险方面处于领先地位。该行政令对于维护政府机构内部安全、公民权利和隐私提供了广泛的指导,同时促进了美国各地的人工智能创新和竞争。
据彭博社报道,拜登当天在白宫的活动中称,“为实现AI的远大前景并避免风险,我们需要对这项技术加以监管。”报道称,这是迄今为止拜登政府对AI技术采取的最重大行动。
二、人工智能发展与安全
近年来,随着数据量大幅增长、计算能力显著提升、深度学习算法的突破性应用,人工智能技术在诸多行业的渗透度明显提升。西安交通大学的马晓悦教授和中国传媒大学的邹欣副教授在《赋能与挑战:人工智能时代的国家安全》一文指出,人工智能赋能国家安全保障,主要体现在危机预测方面较强的预测与管理能力;预测潜在恐怖活动和犯罪活动并制定反恐方案;预测网络网络攻击威胁并提供高效技术支撑。
同时,人工智能技术又在产业竞争、敌对势力颠覆渗透、虚假信息传播、军事技术竞赛等领域带来安全风险。此外,在机密泄露、隐私侵犯、安全性检测、科技伦理和算法歧视等方面,人工智能亟待规范和改善。
面对人工智能种种可能的风险与挑战,美国发布了一项关于安全、可靠和值得信赖的人工智能的行政命令,对于人工智能的使用与治理提出新的解决方案。
三、政令内容
3.1 行政命令在安全方面涵盖哪些内容?
· 安全保障
要求开发最强大的人工智能系统的开发者与美国政府共享他们的安全测试结果和其他关键信息。国家标准和技术研究所将会制定严格的标准,进行大量的红队测试以确保正式发布之前的安全。国土安全部将会将这些标准应用于关键基础设施领域,并建立AI安全和保密委员会。
同时,通过制定强大的新生物合成筛选标准,防止利用人工智能设计危险生物材料的风险。
通过制定标准和方法保护美国人免受AI欺诈,这些标准和方法用于检测AI生成的内容和验证官方内容。商务部将开发关于内容验证和水印的指导,以清楚地标记AI生成的内容。联邦机构将使用这些工具,使美国人能够轻松知道政府信息的真实性,并为私营部门和世界各地的政府树立榜样。
建立一个先进的网络安全程序,开发AI工具来寻找并修复关键软件中的漏洞。
制定一份国家安全备忘录,此文件将确保美国军事和情报界在其任务中安全、合规、有效地使用AI,并将指导行动以对抗对手的军事AI使用。
· 隐私保护
为了更好地保护美国人的隐私,总统呼吁国会通过两党的数据隐私法案,并指示采取以下行动:通过优先考虑联邦支持加速开发和使用保护隐私的技术来保护美国人的隐私;加强保护隐私的研究和技术;评估机构如何收集和使用商业可用的信息,并加强针对人工智能风险的联邦机构隐私指导。
· 公平和公民权利
拜登政府已经通过发布 “AI权利法案蓝图” 和发布行政命令指示各机构对抗算法歧视的同时,执行现有的授权来保护人们的权利和安全。额外行动包括为房东、联邦福利项目和联邦承包商提供明确指导,以防止AI算法被用来加剧歧视;通过培训、技术援助,以及与司法部和联邦公民权利办公室调查和起诉与AI相关的公民权利违反行为;开发关于判刑、假释和缓刑、预审释放和拘留、风险评估、监控、犯罪预测和预测性警务以及法医分析的AI系统,确保整个刑事司法系统的公平性。
· 支持消费者、病人和学生
推进在医疗保健中负责任地使用人工智能,并开发价格合理、挽救生命的药物。健康和人类服务部也将建立一个安全程序,以接收有关人工智能相关的不安全医疗行为报告,并采取行动进行补救。
· 支持工人
制定原则和方法来减轻AI对工人的危害并最大化其提供的好处,借此解决工作替代、制定劳动标准、保障工作场所的公平性及健康和安全,同时研究并加强联邦对面临劳动力中断的工人的支持方案。
· 确保政府负责任且有效地使用人工智能
为了确保政府负责任地部署AI并使联邦AI基础设施现代化,需要为政府机构的AI使用发布指导,帮助机构更快、更便宜、更有效地通过更快速和高效的合同获取指定的AI产品和服务。加快AI专业人才的快速招聘和AI培训工作。
3.2 这个AI行政命令是法律吗,它的指导方针将如何应用?
行政命令不是法律,可能会被修改。关于人工智能安全的行政命令不包括撤销任何现有人工智能公司的运营权。行政命令指明了特定政府机构参与人工智能监管的方向。美国国家标准与技术研究所(NIST)将率先为高风险人工智能基础模型建立红队测试标准。对关键基础设施和其他主要风险的威胁将由能源部和国土安全部负责。
四、我国政策
《2022年全球人工智能创新指数报告》显示,中美两国引领、呈梯次分布的全球人工智能发展总格局保持不变。中国人工智能发展成效显著,人工智能创新指数近三年一直保持全球第二水平。近年来,中国人工智能行业受到各级政府的高度重视和国家产业政策的重点支持,国家陆续出台了多项政策,鼓励人工智能行业发展与创新。
与此同时,中国在人工智能治理领域也不断构建全方位治理体系,加强对重点应用场景的风险管理,针对安全问题给出对应的解决方案。
对于新兴生成式人工智能的领域,国家网信办等七部门发布的《生成式人工智能服务管理暂行办法》已于8月15日正式施行,作为我国首份生成式人工智能的监管文件,其明确了提供者在提供人工智能服务中的安全义务。其中第十二条规定了人工智能服务提供者的强制性标识义务,包括对于生成的信息内容可被自身识别、追溯的标识和面向公众的提示性标识。提供人工智能生成内容的显示区域中,应在显示区域下方或使用者输入信息区域下方持续显示提示文字,或在显示区域的背景添加包含提示文字的显式水印标识。同时,内容提供者应当采取有效措施防范未成年人用户过度依赖或者沉迷生成式人工智能服务。此外,还规定了安全评估、算法备案、投诉举报等制度,明确了法律责任。
由科技部等十部门最新印发的《科技伦理审查办法(试行)》将于12月1日起施行。该《办法》重点解决科技伦理审查职责不明确、审查程序不规范、机制不健全等问题,主要从审查主体、审查程序、监督管理三个方面提出一系列措施和规定。《办法》强调了科研活动中的个人信息、生物识别信息的使用与数据处理安全。涉及以人为研究参与者的科技活动,包括以人为测试、调查、观察等研究活动的对象,以及利用人类生物样本、个人信息数据等的科技活动,需要依照《办法》进行科技伦理审查。算法、模型和系统的设计、实现、应用等遵守公平、公正、透明、可靠、可控等原则,符合国家要求并全面保护用户权益。
人工智能的规范发展需要全球各个国家的共同努力,制定国际人工智能标准,并确保该技术具备强大的伦理基础,就人工智能规范问题达成共识。
在10月30日,外交部发言人汪文斌表示,中方支持在联合国框架下讨论人工智能治理,增加发展中国家代表性和发言权,推动形成具有广泛共识的人工智能治理框架和标准规范。