大语言模型
优惠 LLMs新训练方法Patch-Level Training:用于提高大语言模型的训练效率
5个月前 (07-18)AI
微信 AI 模式识别中心的研究人员推出一种新的训练方法,名为“Patch-Level Training”,用于提高大语言模型(LLMs)的训练效率。这种方法通过将多个词元(tokens)压缩成一个“补丁”(patch),从而减少序列长度,降低计算成本。例如,我们有一个句子 "The quick brown fox ju... 阅读全文
优惠 自动化框架WILDTEAMING:专门用来挖掘和测试大语言模型的安全性漏洞
6个月前 (06-29)AI
华盛顿大学、艾伦人工智能研究所、首尔国立大学和卡内基梅隆大学推出自动化框架WILDTEAMING,它专门用来挖掘和测试大语言模型(LLMs)的安全性漏洞。简单来说,WILDTEAMING能够自动从真实的用户-聊天机器人交互中发现新的“越狱”(jailbreak)策略,这些策略是用户用来绕过语言模型的安全防护的技巧。然后... 阅读全文
优惠 新型二值化技术“Mixture of Scales”:用于压缩大语言模型
6个月前 (06-19)AI
首尔国立大学、 SqueezeBits和成均馆大学的研究人员推出新型二值化技术“Mixture of Scales”(简称BinaryMoS),它主要用于压缩大语言模型(LLMs)。二值化是一种将模型中的权重参数转换为二进制值的方法,可以显著减少模型的大小,但传统的二值化技术会牺牲模型的语言能力。BinaryMoS通过... 阅读全文