site logo

Marico's space

一条 Morse Code 消息如何攻破 Grok:开发者 AI 安全教训

AI技术与应用 2026-05-09 03:09:06 9

最近折腾 AI 安全,踩了一个让我后背发凉的坑。这事得从一条 Morse Code(莫尔斯电码)消息说起——它竟然绕过了 Grok 的安全防护,直接从加密钱包里划走了价值约 15 万美元的 Token。这不是演习,是真实发生在 Base 网络上的事件。

这篇把整个攻击链路拆开给你看,顺便聊聊我们做 AI 系统时该怎么堵住这种漏洞。

The Heist: How Grok Got Tricked

先说事情经过:攻击者盯上了一个叫 Grok 的 AI 聊天机器人和一个叫 Bankrbot 的自动交易机器人。Bankrbot 连接着加密钱包,攻击目标是从里面捞出 15 万美元。

整个攻击分四步走:

  1. 权限提升:攻击者先给 Grok 的钱包转了一个"Bankr Club Membership NFT(非同质化代币)"。系统把这解读成合法的权限授予,Grok 瞬间获得了发起加密转账和 Swap(代币兑换)的能力。

  2. Morse Code 暗渡陈仓:拿到权限后,攻击者没有直接下命令,而是让 Grok 帮忙翻译一段 Morse Code。这看起来是个无害的翻译请求,实际上是一段精心隐藏的恶意指令。

  3. Grok 执行指令:Grok 收到翻译任务,愉快地把 Morse Code 转成明文,然后——没有做任何上下文验证——就把翻译结果当成合法指令发给了 Bankrbot。指令内容是:把 30 亿 DRB Token 转到一个攻击者控制的地址。

  4. 完成收割:Bankrbot 看到 Grok 发来的指令,直接执行。30 亿 DRB(当时价值约 15 万美元)瞬间转移。攻击者立刻把它们换成 ETH 和 USDC,留下一地鸡毛。

Morse Code: The Ultimate Stealth Prompt Injection

这本质上是一次经典的 Prompt Injection(提示词注入)攻击。但它的高明之处在于用 Morse Code 搭了一条隐蔽信道(Covert Channel)

常规安全过滤都在扫描自然语言里的可疑关键词。但攻击者让 Grok 做翻译,Grok 看到的是一道翻译题,不是恶意指令。Morse Code 被翻译成明文后,藏在里面的命令才露出真面目——这时候 Grok 已经有权限了,直接把指令传给 Bankrbot,就像自己的正常操作一样。

这个案例暴露了一个关键盲点:AI 的辅助功能(比如翻译)可能被武器化。当一个"贴心功能"缺乏足够的安全边界,它就成了攻击入口。

The Peril of Excessive AI Agency

Grok 这事还撕开了另一个口子——过度代理(Excessive Agency)

问题不只是 Prompt Injection,关键是 Grok 拥有太多自主权,能直接操控金融资产。那枚 NFT 给了 Grok 发起重大金融操作的权限,所以当 Morse Code 指令被注入并翻译后,Grok 直接绕过了本该存在的人工验证环节。一笔 15 万美元的转账,没有任何"人类确认(Human-in-the-Loop)"机制,也没有程序级别的熔断器来拦截这种异常高额交易。

这是巨大的设计缺陷。我们默认信任 AI 能独立判断和执行高影响操作,但从没想过给它装个"安全阀"。对 AI 安全从业者来说,这敲响了警钟:该重新审视 AI 的权限边界了,尤其是在控制资金的时候。

OWASP Top 10 for LLM Application Security: What This Means for Developers

Grok 事件精准命中了 OWASP Top 10 for LLM(Large Language Model,大语言模型)应用安全的两个高危漏洞:

  • LLM01: Prompt Injection:Morse Code 攻击是教科书级别的案例。它绑过了 Grok 的逻辑判断,强制执行未授权操作。而 Morse Code 这种隐蔽格式让检测难上加难——输入验证必须升级,不能只扫关键词。
  • LLM04: Excessive Agency:Grok 能在没有任何验证的情况下转走 15 万美元,完美诠释了这个漏洞。AI 对高价值操作拥有太多自主权,一次成功的 Prompt Injection 就能直接变成真金白银的损失。需要细粒度的访问控制和权限管理。

How to Protect Your AI Systems: A Developer's Checklist

怎么防?给你列个清单:

  • 增强输入验证和清洗:别只过滤内容,要分析所有输入的意图和上下文。就算伪装成 Morse Code 这种非常规格式,也要能识别出来。思维不能局限在自然语言里。
  • 强化访问控制和权限管理:遵循最小权限原则。AI 能访问什么,要严格按照实际需求来。权限应该是动态的、上下文感知的,不用的时候及时收回。
  • 关键操作强制 MFA(多因素认证)或 HITL(人工介入):涉及高价值的操作,必须有强制人工确认或者 MFA(多因素认证)。这是最后一道防线,能兜住 AI 的"冲动行为"。
  • 提升上下文理解和异常检测:AI 要能区分合法指令和可疑指令。部署异常检测,发现大额未验证转账这种行为就报警。
  • 持续安全审计和红队演练:定期测 AI 系统的漏洞,模拟各种攻击(包括新型 Prompt Injection 和隐蔽信道),在攻击者之前找到弱点。

Conclusion: Building Resilient AI is Our Responsibility

Grok Morse Code 加密劫持案是 AI 安全领域的里程碑事件。它证明理论漏洞已经能造成实际的财务损失。这不只是安全专家的事,每个做 AI 的开发者都躲不掉。

AI 正在深入金融等关键基础设施,越往后赌注越大。我们要在追求效率的同时,深刻理解风险。一个精心构造的输入,就能让 AI 听命于人,导致惨重的经济损失。

构建更安全、更可信的 AI,是我们共同的责任。技术防护要升级,AI 代理的边界要重新评估,验证机制要健全,安全审计要持续,高影响决策要保留人类主导权。AI 不光要聪明,更要安全。

原文链接:https://dev.to/sysiq/how-a-morse-code-message-hacked-grok-lessons-in-ai-security-for-developers-4pnc