ChatGPT带来的数据暴露风险及应对方案

首页 / 业界 / 资讯 /  正文
作者:安全419
来源:安全419
发布于:2023-10-19
ChatGPT改变了企业生成文本内容的方式,对生产力带来巨大提升。而生成式 AI也引入了一定的数据暴露风险,当员工不经意间在ChatGPT或类似应用程序中输入或粘贴敏感的业务数据时,核心资产面临外泄威胁。而传统的数据防泄漏(DLP)解决方案侧重于基于文件格式的终端数据保护,难以应对上述挑战。



LayerX的新报告《浏览器安全平台:保护ChatGPT中的数据免遭暴露》指出使用未经管控的ChatGPT将带来的挑战和风险。该报告全面说明了企业面临的潜在风险,并提供了对应的解决方案:浏览器安全平台。此类平台能实时监控和治理Web的会话流量和数据传输,从而有效保护敏感数据。

AIGC应用程序使用量激增

统计数据发现,包括ChatGPT在内的各类AIGC应用程序得到大面积普及。过去三个月,员工对AIGC应用程序的使用量激增了44%。每1000名员工平均每天访问程序131次,而6%的员工将敏感数据粘贴到程序中。

面临风险的数据类型

敏感/内部信息;
源代码;
客户端数据;
受监管的个人识别信息PII;
项目规划文件。

数据泄露方式

1.意外暴露: 员工可能会无意中将敏感数据粘贴到 ChatGPT 中。

2.恶意泄露: 恶意员工利用 ChatGPT 泄露数据。

3.针对性攻击:攻击者可能会破坏端点并执行面向 ChatGPT 的侦察。

为什么传统DLP解决方案不足以应对

传统的DLP解决方案是为保护存储在文件中的数据而设计的,而不是保护插入到Web会话中的数据。因此对于ChatGPT带来的风险,传统DLP解决方案不足以应对。

降低数据暴露风险的种常见方法

教育和培训:提供员工培训,使其了解数据安全和风险,以减少数据曝光的可能性。
 
策略和监控:
制定明确的数据使用策略,并使用监控工具来跟踪和识别潜在的数据暴露风险。
 
浏览器安全平台:提供实时的监控和管理功能,可以监控用户向ChatGPT提供输入的所有方式,提供传统DLP解决方案无法匹敌的保护水平。

浏览器安全平台三层安全保护策略

浏览器安全平台提供三层保护策略:

阻止:平台可以阻止用户输入敏感数据,有效避免数据暴露风险。
 
警示:平台可以发出警示,提醒用户注意输入的敏感数据。
 
允许:平台可以允许用户输入某些敏感数据,但同时进行监控和记录,以确保数据安全。
 
浏览器安全平台允许在这三个层级上进行阻止、警示和允许操作的组合,使组织能够灵活定制其数据保护策略。


保护并启用 ChatGPT


浏览器安全平台是能防范ChatGPT数据曝光风险的有效解决方案,使组织能够充分发挥基于AI的文本生成器的潜力。