时间:09/17/2025 00:00
浏览: 3424
在最近的安全研究中,研究人员揭示一种新的攻击方式,利用受损的 Google 日历邀请来劫持 ChatGPT 的 Gmail 连接器,并泄露私人电子邮件。这一发现由资安研究员 Eito Miyamura 提出,她在 12 日於社群媒体上详细说明这个过程。
根据 Miyamura 的说法,攻击者可以发送一个包含恶意指令的日历邀请,当受害者与 ChatGPT 互动并请求其执行某个操作时,ChatGPT 会读取这个被设计的事件,并根据指令搜寻 Gmail 中的敏感资讯。Miyamura 指出,进行这一攻击所需的唯一条件是受害者的电子邮件地址。
OpenAI 在 2023 年 8 月中旬推出了 ChatGPT 的原生 Gmail、Google 日历和 Google 联络人连接器,最初仅对 Pro 用户开放,随后扩展到 Plus 用户。这些连接器允许 ChatGPT 在获得授权后自动引用这些来源的数据,这意味着用户可以轻松查询日历而无需每次都选择来源。
Miyamura 强调,这一攻击利用了最近对模型上下文协议(MCP)的支持,这是一种允许大型语言模型与外部工具(如 Gmail、日历)互动的协议,进而扩展了模型的能力与风险。这种间接的提示注入攻击方式,让攻击者的指令隐藏在助理被允许阅读的数据中,进而造成潜在的安全风险。
尽管如此,这一攻击的前提是用户必须首先在 ChatGPT 中连接 Gmail 和日历,助理的行为仍然取决於 OpenAI 在处理第三方内容时所应用的政策和提示。用户可以选择断开来源或禁用自动使用,这样可以减少受损事件影响日常聊天的机会。
为了提高安全性,建议用户在 Google 日历中更改「自动添加邀请」的设置,仅允许来自已知发件人或接受的邀请出现在日历上,并考虑隐藏已拒绝的事件。Google 的支援页面提供了详细的操作指南,Google Workspace 管理员也可以设置更安全的默认选项。
这个事件提醒我们,虽然 ChatGPT 或 Gmail 并未被骇客攻击,但使用工具的 AI 对於潜藏在用户允许其阅读的数据中的恶意指令特别敏感。这些连接器虽然使助理更有用,但也扩大了攻击面,直到行业推出更强大的防御措施,最安全的做法是谨慎选择连接的帐号,并在此情况下加强日历的安全性,以防止陌生人植入恶意内容。
图片翻摄自网路,版权归原作者所有。如有侵权请联系我们,我们将及时处理。