安全漏洞曝光:ChatGPT连接器被证实可被“毒化文档”窃取敏感数据
安全研究人员在黑帽大会上演示,只需向用户Google Drive共享一份隐藏恶意指令的“毒化”文档,攻击者就能通过ChatGPT的连接器功能,远程提取API密钥等敏感信息,无需用户任何操作。该漏洞利用隐藏在文档中的微小白色文字指令,诱导AI自动检索并泄露数据。OpenAI已在收到报告后迅速修复相关问题,但专家提醒,随着AI与外部数据源的深度集成,类似的间接指令注入攻击风险正持续上升。
WIRED
🍀频道 🍵茶馆 📮投稿
via 科技圈🎗在花频道📮 - Telegram Channel
安全研究人员在黑帽大会上演示,只需向用户Google Drive共享一份隐藏恶意指令的“毒化”文档,攻击者就能通过ChatGPT的连接器功能,远程提取API密钥等敏感信息,无需用户任何操作。该漏洞利用隐藏在文档中的微小白色文字指令,诱导AI自动检索并泄露数据。OpenAI已在收到报告后迅速修复相关问题,但专家提醒,随着AI与外部数据源的深度集成,类似的间接指令注入攻击风险正持续上升。
WIRED
🍀频道 🍵茶馆 📮投稿
via 科技圈🎗在花频道📮 - Telegram Channel