在 AI 应用开发中,Prompt 注入是一个不可忽视的安全威胁。本文将介绍什么是 Prompt 注入、常见攻击方式,以及如何使用 Go 语言构建防护方案。

根据 OWASP(开放 Web 应用安全项目)2025 年发布的 LLM01: Prompt Injection 标准:

当用户输入以非预期方式改变 LLM 的行为或输出时,就存在 Prompt 注入漏洞。这些输入即使对人类不可感知也能影响模型,因此注入不需要是人类可见/可读的,只要模型能解析即可。