├── README.md └── SecureNexusLab_LLM_Attack.pdf /README.md: -------------------------------------------------------------------------------- 1 | # LLMPromptAttackGuide 2 | 3 | # 大语言模型 Prompt 攻击手册 4 | 5 | 随着 OpenAI 在近年快速发展,生成式人工智能(GenAI)及其相关应用已吸引了众多用户与投资者的关注。GenAI 集成的软件系统以显著的势头迅速发展,然而,伴随这一增长而来的,是日益增加的安全风险和未解决的漏洞。由于大语言模型尚无法清晰区分数据和指令,这一弱点为攻击者提供了可乘之机,常见攻击方式包括提示注入(Prompt Injection)和角色扮演等,攻击者利用这些手段获取本应被模型拦截的敏感信息。尽管市场上对新出现的威胁尚未有有效的全面缓解措施,但通过对攻击方式的分类、总结与归纳,能为从业者提供识别与修复漏洞的关键洞见,促进部署更加安全可靠的模型。同时,语义近似匹配等防御工具的开发也为模型抵御潜在攻击提供了额外的防护手段。 6 | 7 | 本手册旨在帮助安全行业从业者及相关领域的爱好者快速了解大语言模型提示攻击(Prompt Attack)的定义与原理,掌握攻击方式的实际应用,并提升分析 LLM 漏洞及深入研究的能力。理解大语言模型攻击并不要求精通代码编写或工程实践,读者只需具备足够的耐心进行学习与实践。此外,诸如角色扮演等攻击手段,只有在非法目的下使用时才构成违法行为。通过对不同提示(Prompt)形式的学习,读者可以进一步建立对生成式 AI 应用的深刻理解,掌握如何更有效地利用大语言模型来优化工作与生活。 8 | 9 | 您可以通过本链接 [大语言模型 Prompt 攻击手册](https://github.com/SecureNexusLab/LLMPromptAttackGuide/blob/main/SecureNexusLab_LLM_Attack.pdf) 获取手册的 pdf 文件。 10 | 11 | ## 分发许可 License 12 | 13 | 本手册使用 MIT License 14 | 15 | ## 贡献者 Contributors 16 | 17 | 感谢各师傅的辛勤付出,在阅读和学习的过程中有遇到描述不妥或错误、或有对本手册遗漏知识的补充,亦或者在学习过程中需要帮助,您都可以通过以下联系方式联系我们,我们诚挚欢迎各位师傅的加入! 18 | 19 | :handshake: TheBinKing:e-mail:thebinking66@gmail.com 20 | 21 | :handshake: Yuchen Fang (@Anxiu0101):e-mail:anxiu.fyc@foxmail.com 22 | 23 | :handshake: littlebird :e-mail:mcc531640@gmail.com 24 | 25 | 26 | > 如果本教程对您有所帮助,我们深感荣幸,如在阅读中您有新内容补充或新想法提供,欢迎与我们一同构建~ 27 | > 此外欢迎各位师傅加入SecureNexusLab一起构建一个高质量的安全社群,一起讨论前沿的技术~(外部交流群:QQ3群:701604947,QQ4群:701934709) 28 | -------------------------------------------------------------------------------- /SecureNexusLab_LLM_Attack.pdf: -------------------------------------------------------------------------------- https://raw.githubusercontent.com/SecureNexusLab/LLMPromptAttackGuide/ae7bb46c5e46866978f62f38431b9908dff6df08/SecureNexusLab_LLM_Attack.pdf --------------------------------------------------------------------------------