个人隐私

优惠 Learning to Refuse: 保护大语言模型中的个人隐私数据

  • Learning to Refuse: 保护大语言模型中的个人隐私数据
    AI
  • 苏州大学计算机科学与技术学院人工智能研究所的研究人员发布论文,论文的主题是关于如何保护大语言模型(LLMs)中的个人隐私数据。随着AI技术的发展,大型语言模型在理解和生成自然语言方面表现出了惊人的能力,但同时也带来了隐私泄露的风险。这些模型可能会无意中记住训练数据中的个人信息,比如个人的名字、电子邮件地址、电话号码等敏... 阅读全文