LLaVA-MoD

优惠 新型框架LLaVA-MoD:通过专家混合(MoE)知识蒸馏技术使大型多模态语言模型变得小型化

  • 新型框架LLaVA-MoD:通过专家混合(MoE)知识蒸馏技术使大型多模态语言模型变得小型化
    AI
  • 阿里巴巴、香港中文大学、香港感知与交互智能研究中心和北京航空航天大学的研究人员推出新型框架LLaVA-MoD,通过专家混合(MoE)知识蒸馏技术使大型多模态语言模型(MLLM)变得小型化。简单来说,LLaVA-MoD的目标是让一个小型的多模态语言模型通过学习大型模型的知识,来提高自己的理解和生成能力,同时保持较低的计算... 阅读全文