论文翻译:A survey on large language model (LLM) security and privacy: The Good, The Bad, and The Ugly

A survey on large language model (LLM) security and privacy: The Good, The Bad, and The Ugly
https://www.sciencedirect.com/science/article/pii/S266729522400014X

文章目录

  • 关于大型语言模型(LLM)安全性和隐私的调查:好的、坏的和丑陋的
  • 摘要
  • 1. 引言
  • 2. 背景
    • 2.1 大型语言模型(LLMs)
    • 2.2 流行LLM的比较
  • 3. 概述
    • 3.1. 范围
    • 3.2. 研究问题
  • 4. 对安全和隐私的积极影响
    • 4.1. 用于代码安全的LLMs
    • 4.2. 用于数据安全和隐私的LLMs
  • 5. 对安全和隐私的负面影响
  • 6. LLMs中的漏洞和防御
    • 6.1. LLMs中的漏洞和威胁
      • 6.1.1. AI固有漏洞和威胁
      • 6.1.2. 非AI固有漏洞和威胁
    • 6.2. LLMs的防御
      • 6.2.1. 模型架构中的防御
      • 6.2.2. LLM训练和推理中的防御
  • 7. 讨论
    • 7.1. LLM在其他安全相关主题中的应用
    • 7.2. 未来方向
  • 8. 相关工作
  • 9. 结论

关于大型语言模型(LLM)安全性和隐私的调查:好的、坏的和丑陋的

摘要

大型语言模型(LLMs),如ChatGPT和Bard,已经彻底改变了自然语言理解和生成。它们具有深度语言理解能力、类似人类的文本生成能力、上下文意识和强大的问题解决技能,使它们在各个领域(例如搜索引擎、客户支持、翻译)中变得不可或缺。同时,LLMs也在安全领域获得了关注,揭示了安全漏洞并展示了它们在安全相关任务中的潜力。本文探讨了LLMs与安全性和隐私的交集。具体来说,我们研究了LLMs如何积极影响安全性和隐私,与它们使用相关的潜在风险和威胁,以及LLMs内部的固有漏洞。通过全面的文献综述,本文将论文分类为“好的”(有益的LLM应用)、“坏的”(攻击性应用&#

你可能感兴趣的:(论文翻译,LLMs-鲁棒性,语言模型,人工智能,自然语言处理)