第5期 | GPTSecurity周报

第5期 | GPTSecurity周报_第1张图片

GPTSecurity是一个涵盖了前沿学术研究和实践经验分享的社区,集成了生成预训练 Transformer(GPT)、人工智能生成内容(AIGC)以及大型语言模型(LLM)等安全领域应用的知识。在这里,您可以找到关于GPT/AIGC/LLM最新的研究论文、博客文章、实用的工具和预设指令(Prompts)。现为了更好的知悉近一周的贡献内容,现总结如下如下。

Security Papers

1. GPT自身安全

  • ChatGPT Security Risks: A Guide for Cyber Security Professionals

    https://www.cybertalk.org/wp-content/uploads/2023/03/ChatGPT_eBook_CP_CT_2023.pdf

  • 安全测试中的 ChatGPT AI:机遇与挑战 

    https://www.cyfirma.com/outofband/chatgpt-ai-in-security-testing-opportunities-and-challenges/

  • OWASP发布了Top 10 for Large Language Model Applications项目,旨在教育开发人员、设计师、架构师、经理和组织了解部署和管理大语言模型LLM时的潜在安全风险,该项目提供了一个常见于LLM应用中的十个最关键漏洞的列表。

    https://owasp.org/www-project-top-10-for-large-language-model-applications/

2. 软件供应链安全

  • ChatGPT 生成代码的安全漏洞 

    https://www.trendmicro.com/ja_jp/devops/23/e/chatgpt-security-vulnerabilities.html

你可能感兴趣的:(人工智能,chatgpt,安全,网络安全)