LayerX的新报告《浏览器安全平台:保护ChatGPT中的数据免遭暴露》指出使用未经管控的ChatGPT将带来的挑战和风险。该报告全面说明了企业面临的潜在风险,并提供了对应的解决方案:浏览器安全平台。此类平台能实时监控和治理Web的会话流量和数据传输,从而有效保护敏感数据。
AIGC应用程序使用量激增
统计数据发现,包括ChatGPT在内的各类AIGC应用程序得到大面积普及。过去三个月,员工对AIGC应用程序的使用量激增了44%。每1000名员工平均每天访问程序131次,而6%的员工将敏感数据粘贴到程序中。
面临风险的数据类型
敏感/内部信息;
源代码;
客户端数据;
受监管的个人识别信息PII;
项目规划文件。
数据泄露方式
1.意外暴露: 员工可能会无意中将敏感数据粘贴到 ChatGPT 中。
2.恶意泄露: 恶意员工利用 ChatGPT 泄露数据。
3.针对性攻击:攻击者可能会破坏端点并执行面向 ChatGPT 的侦察。
为什么传统DLP解决方案不足以应对
传统的DLP解决方案是为保护存储在文件中的数据而设计的,而不是保护插入到Web会话中的数据。因此对于ChatGPT带来的风险,传统DLP解决方案不足以应对。
降低数据暴露风险的三种常见方法
教育和培训:提供员工培训,使其了解数据安全和风险,以减少数据曝光的可能性。
策略和监控:制定明确的数据使用策略,并使用监控工具来跟踪和识别潜在的数据暴露风险。
浏览器安全平台:提供实时的监控和管理功能,可以监控用户向ChatGPT提供输入的所有方式,提供传统DLP解决方案无法匹敌的保护水平。
浏览器安全平台三层安全保护策略
浏览器安全平台提供三层保护策略:
阻止:平台可以阻止用户输入敏感数据,有效避免数据暴露风险。
警示:平台可以发出警示,提醒用户注意输入的敏感数据。
允许:平台可以允许用户输入某些敏感数据,但同时进行监控和记录,以确保数据安全。
浏览器安全平台允许在这三个层级上进行阻止、警示和允许操作的组合,使组织能够灵活定制其数据保护策略。
保护并启用 ChatGPT
浏览器安全平台是能防范ChatGPT数据曝光风险的有效解决方案,使组织能够充分发挥基于AI的文本生成器的潜力。