《生成式人工智能服务管理办法》拟出台 提供者需申报安全评估

首页 / 业界 / 政策 /  正文
作者:星移
来源:安全419
发布于:2023-04-11


4月11日,为促进生成式人工智能技术健康发展和规范应用,根据《中华人民共和国网络安全法》等法律法规,国家互联网信息办公室起草《生成式人工智能服务管理办法(征求意见稿)》(以下简称《办法》),目前正向社会公开征求意见。

自2014年生成式对抗网络(Generative Adversarial Networks,GAN)被提出并迭代更新,生成式人工智能迎来新时代。在生成式人工智能盛行的背景下,《办法》的出台将为我国生成式人工智能的高速、健康发展保驾护航。

根据《办法》定义,生成式人工智能是指基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术,面向研发、利用生成式人工智能产品,面向我国境内公众提供服务的组织或个人。《办法》具体内容包括出台目的、适用范围、制度建设、运行机制等方面。其中,安全419关注到,《办法》明确了生成式人工智能生成内容的性质以及明晰了研发组织或个人的责任,初步回应了当下生成式人工智能发展伴随着的争议。

导向正确:遵守法律法规,内容真实准确

《办法》第四条第四项规定,利用生成式人工智能生成的内容应当真实准确,采取措施防止生成虚假信息。从技术能力方面来看,智能数字内容孪生、智能数字内容编辑及智能数字内容创作三层次的能力共同构成了生成式人工智能的能力闭环。然而,能够生成内容并不等同于内容真实准确。目前热门的生成式人工智能,一方面会出现自行产出虚假内容问题,另一方面出现被不法分子利用,被迫产出误导受众甚至损害公共利益的虚假信息。

由此,为防止以上状况发生,还需要从制度和技术两方面入手。

•《办法》第四条规定, 提供生成式人工智能产品或服务应当遵守法律法规的要求,尊重社会公德、公序良俗。满足体现社会主义核心价值观、内容真实准确、尊重知识产权等要求;

•《办法》第五条提出,利用生成式人工智能产品提供聊天和文本、图像、声音生成等服务的组织和个人,包括通过提供可编程接口等方式支持他人自行生成文本、图像、声音等,承担该产品生成内容生产者的责任,涉及个人信息的,承担个人信息处理者的法定责任,履行个人信息保护义务;

•《办法》第十五条规定,对于运行中发现、用户举报的不符合本办法要求的生成内容,除采取内容过滤等措施外,应在3个月内通过模型优化训练等方式防止再次生成。

程序创新:申报安全评估,优化使用流程

根据《办法》第六条,利用生成式人工智能产品向公众提供服务前,应当按照《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》向国家网信部门申报安全评估,并按照《互联网信息服务算法推荐管理规定》履行算法备案和变更、注销备案手续。

在此前发布的《科技伦理审查办法(试行)》中就提到,科研机构是科技伦理审查管理的责任主体之一,应坚持科学、独立、公正、透明原则,公开审查制度和审查程序,客观审慎评估科技活动伦理风险,依规开展审查,并自觉接受有关方面的监督。   

此外,根据《办法》多条内容,提供者还需要不断优化生成式人工智能的训练过程及使用流程。如:

• 第七条规定,提供者应当对生成式人工智能产品的预训练数据、优化训练数据来源的合法性负责;

• 第八条规定, 生成式人工智能产品研制中采用人工标注时,提供者应当制定符合本办法要求,清晰、具体、可操作的标注规则,对标注人员进行必要培训,抽样核验标注内容的正确性;

• 第九条规定,提供生成式人工智能服务应当按照《中华人民共和国网络安全法》规定,要求用户提供真实身份信息。

随着科技的不断成熟,生成式人工智能市场也将日趋完善,在制度的约束下,国家和相关机构不断引导生成式人工智能坚定不移走上正确发展道路,让其为人类提供更安全、更稳定、更完备的服务。