知识蒸馏

优惠 直接偏好知识蒸馏DPKD:专门为大语言模型设计

  • 直接偏好知识蒸馏DPKD:专门为大语言模型设计
    AI
  • 上海交通大学、清华大学、微软研究院和香港中文大学的研究人员推出一种新型的知识蒸馏(Knowledge Distillation, KD)方法,称为直接偏好知识蒸馏(Direct Preference Knowledge Distillation, DPKD),专门为大型语言模型(Large Language Model... 阅读全文