安全漏洞曝光:ChatGPT连接器被证实可被“毒化文档”窃取敏感数据

安全研究人员在黑帽大会上演示,只需向用户Google Drive共享一份隐藏恶意指令的“毒化”文档,攻击者就能通过ChatGPT的连接器功能,远程提取API密钥等敏感信息,无需用户任何操作。该漏洞利用隐藏在文档中的微小白色文字指令,诱导AI自动检索并泄露数据。OpenAI已在收到报告后迅速修复相关问题,但专家提醒,随着AI与外部数据源的深度集成,类似的间接指令注入攻击风险正持续上升。

WIRED

🍀频道 🍵茶馆 📮投稿

via 科技圈🎗在花频道📮 - Telegram Channel
 
 
Back to Top
Copyright © 2025 BESTAI. All rights reserved.
BEST AI API中转 - OpenAI DeepSeek Claude Gemini Grok MidJourney 2.8折起
[email protected]