安全性引担忧 专家指出需从开发阶段构建安全AI

首页 / 业界 / 资讯 /  正文
作者:安全419
来源:安全419
发布于:2023-09-12
美国网络安全和基础设施安全局(CISA)在8月发布了一项建议,提醒构建人工智能(AI)模型的组织,它们与任何其他软件一样容易受到漏洞的影响。具体来说,CISA呼吁人工智能系统的构建者将客户的安全性视为核心业务需求,而不仅仅是技术功能,并在产品的整个生命周期中优先考虑安全性。



人工智能模型受到与现有软件相同的供应链问题的影响。用于构建AI模型的组件通常由数据科学团队从存储库下载,这些团队通常比普通应用程序开发人员更不了解网络安全问题。因此,不会扫描所使用的许多组件以查找可能被利用的漏洞或可能嵌入其中的恶意软件。
 
IT博客作者Mike Vizard指出,当然,最大限度地减少对 AI 模型威胁的唯一方法是确保网络安全最佳实践嵌入到用于构建 AI 模型的机器学习操作(MLOps)流程中。就像 DevSecOps 实践通过鼓励开发人员采用网络安全最佳实践来帮助改善应用程序安全状态一样,现在需要与数据科学家进行同样的对话,首先强调使用软件组件的精选强化映像来构建已经过已知漏洞测试的 AI 模型。
 
在生产环境中部署 AI 模型后,修复其中的漏洞风险要大得多。当然,不能保证在某些时候无论使用的映像多么强化,都不需要应用补丁,但可能需要补丁的实例数量应该大大减少。与往常一样,问题将是尽可能缩小涉及AI模型的漏洞的影响范围,因为考虑到可能涉及的流程和性质,业务的潜在风险水平将高得多。
 
Mike Vizard表示,希望网络安全团队能够在任何重大违规事件发生之前解决这个问题,但是,如果历史可以作为指导,那么直到发生重大违规行为,保护人工智能模型才能得到应有的关注。与此同时,网络安全团队可能希望现在就开始研究如何应对涉及人工智能模型的安全事件,而不是再次学习如何以艰难的方式应对网络攻击。