大语言模型曝漏洞 ChatGPT也无法免疫

首页 / 视频 / 视频新闻 /  正文
作者:安全419
来源:安全419
发布于:2025-02-19
据外媒消息,近期发现名为 “时间强盗” 的大语言模型漏洞,对 ChatGPT 等 AI 系统安全构成威胁。攻击者利用该漏洞,通过操纵模型时间推理能力,绕过安全措施,生成恶意软件代码、钓鱼模板等有害内容。 他们先将对话设定在特定历史时期,再转向非法话题,利用模型对历史背景的模拟,使其放松安全协议。此漏洞利用模型处理上下文弱点,可通过直接提示或搜索功能发动攻击。经测试,先进模型如 ChatGPT - 4o 也无法免疫。目前,OpenAI 虽已着手解决,但在部分配置下漏洞仍存,开发人员需采取多种措施修复,用户和管理员也需警惕。