大语言模型

优惠 新方法HiRED:提高高分辨率视觉-语言模型(VLMs)在资源受限环境中的推理效率

  • 新方法HiRED:提高高分辨率视觉-语言模型(VLMs)在资源受限环境中的推理效率
    AI
  • 弗吉尼亚理工大学、贝尔法斯特女王大学和都柏林大学学院的研究人员推出新方法HiRED(High-Resolution Early Dropping),它旨在提高高分辨率视觉-语言模型(VLMs)在资源受限环境中的推理效率。这些模型广泛应用于多模态任务中,如图像和文本的联合理解,但在处理高分辨率图像时,它们会产生大量的视觉... 阅读全文

    优惠 多模态大语言模型基准评测MME-RealWorld:现实世界高分辨率场景下的性能评估

  • 多模态大语言模型基准评测MME-RealWorld:现实世界高分辨率场景下的性能评估
    AI
  • 中科院人工智能研究所、南京大学、香港科技大学、南洋理工大学、中科院大学、松鼠AI和Meta AI的研究人员推出多模态大语言模型基准MME-RealWorld,在现实世界高分辨率场景下的性能评估。简单来说,就是研究当这些智能模型面对真实世界中的复杂图像和问题时,它们的表现如何。 项目主页:https://mme-real... 阅读全文

    优惠 构建和深入理解视觉-语言模型!Hugging Face推出理解视觉-语言模型Idefics3-8B

  • 构建和深入理解视觉-语言模型!Hugging Face推出理解视觉-语言模型Idefics3-8B
    AI
  • Hugging Face发布论文,论文的主题是关于构建和深入理解视觉-语言模型(VLMs)。VLMs是一种人工智能模型,它们能够处理和理解图像和文本,然后将这些信息综合起来输出文本。简单来说,这些模型就像一个能够“看”图片并“写”出描述的智能系统。它们还推出了Idefics3-8B,这是一个强大的VLM,它在开放数据集... 阅读全文

    优惠 PAB:用于加速基于扩散模型的实时视频生成

  • PAB:用于加速基于扩散模型的实时视频生成
    AI
  • 新加坡国立大学、VideoSys 团队和普渡大学的研究人员推出新技术Pyramid Attention Broadcast (PAB),它用于加速基于扩散模型的实时视频生成。这项技术的核心思想是观察到在视频生成过程中的注意力机制(attention)存在一种U形模式的冗余,即在中间的大部分步骤中,注意力的变化非常小,而... 阅读全文

    优惠 AI21实验室推出大语言模型Jamba-1.5系列

  • AI21实验室推出大语言模型Jamba-1.5系列
    AI
  • AI21实验室推出大语言模型Jamba-1.5系列,它们基于Jamba架构,融合了Transformer和Mamba模型的优势,专门针对指令调优进行了优化。Jamba-1.5有两个版本:Jamba-1.5-Large(94亿活跃参数)和Jamba-1.5-Mini(12亿活跃参数)。例如,你有一个能够理解和执行指令的智... 阅读全文

    优惠 基于 Llama 3.1的大语言模型Hermes 3:专门针对接受指令和工具使用进行了优化,具备强大的推理和创造能力

  • 基于 Llama 3.1的大语言模型Hermes 3:专门针对接受指令和工具使用进行了优化,具备强大的推理和创造能力
    AI
  • Nous Research推出基于 Llama 3.1的大语言模型Hermes 3,它专门针对接受指令和工具使用进行了优化,具备强大的推理和创造能力。Hermes 3模型以其中立的立场和高度的可控性脱颖而出,能够精确地响应用户的指令性陈述。例如,你有一个智能助手,它可以阅读你的指令,比如“列出旧金山值得一游的有趣地点”... 阅读全文

    优惠 新型基准测试GRAB:评估和推动大型多模态模型在图形分析方面的能力而设计

  • 新型基准测试GRAB:评估和推动大型多模态模型在图形分析方面的能力而设计
    AI
  • 剑桥大学和香港大学的研究人员推出新型基准测试GRAB,专为评估和推动大型多模态模型(Large Multimodal Models,简称LMMs)在图形分析方面的能力而设计。这些模型在许多视觉任务中表现出了强大的能力,但现有的基准测试对于新一代的LMMs来说已经不够有挑战性。因此,研究者们需要一个更难、更全面的测试来评... 阅读全文

    优惠 新型视频基础模型TWLV-I:提高对视频内容的理解和分析能力,特别是在识别视频中的对象外观和运动方面

  • 新型视频基础模型TWLV-I:提高对视频内容的理解和分析能力,特别是在识别视频中的对象外观和运动方面
    AI
  • Twelve Labs推出一种新型视频基础模型TWLV-I,这个模型的目的是提高对视频内容的理解和分析能力,特别是在识别视频中的对象外观(appearance)和运动(motion)方面。例如,一个安全摄像头捕捉到一个场景,TWLV-I可以帮助识别场景中的人是否在进行可疑活动,或者在体育赛事中,它能够识别运动员的具体动... 阅读全文

    优惠 NeCo:用于改善预训练模型的空间表示能力,特别是在自监督学习环境中

  • NeCo:用于改善预训练模型的空间表示能力,特别是在自监督学习环境中
    AI
  • 阿姆斯特丹大学、 荷兰应用科学研究组织和奥地利科学技术研究所的研究人员推出新技术NeCo(Patch Neighbor Consistency),用于改善预训练模型的空间表示能力,特别是在自监督学习环境中。NeCo通过对学生和教师模型之间的补丁级最近邻一致性进行排序,增强了模型对图像中各个部分特征的理解和表达。 论文:... 阅读全文

    优惠 新型视觉模型MM-SAM:处理多种传感器数据,进行鲁棒且准确的场景分割

  • 新型视觉模型MM-SAM:处理多种传感器数据,进行鲁棒且准确的场景分割
    AI
  • 新加坡南洋理工大学、日本东京大学、RIKEN AIP和日本奈良科学技术大学的研究人员推出新型视觉模型MM-SAM(Multi-Modal Segment Anything Model),它能够处理多种传感器数据,进行鲁棒且准确的场景分割。场景分割是一种让计算机识别并区分图像中各个物体或区域的技术,这项技术在自动驾驶、机... 阅读全文

    优惠 为处理长视频内容而设计的多模态视觉语言模型LongVILA

  • 为处理长视频内容而设计的多模态视觉语言模型LongVILA
    AI
  • 英伟达、麻省理工学院、加州大学伯克利分校和德克萨斯大学奥斯汀分校的研究人员推出LongVILA系统,它是一个为处理长视频内容而设计的多模态视觉语言模型。例如,我们有一段非常长的视频,比如一场足球比赛或者一个长时间的教学视频,我们需要一个智能系统来理解视频中的内容,甚至能够根据视频内容生成描述或者回答有关视频的问题。Lo... 阅读全文

    优惠 用于开发大型多模态模型的新框架xGen-MM

  • 用于开发大型多模态模型的新框架xGen-MM
    AI
  • Salesforce AI 研究和华盛顿大学的研究人员推出新框架xGen-MM(也被称为BLIP-3),它是用于开发大型多模态模型(LMMs)的。多模态模型,你可以想象成一种超级大脑,不仅能理解文本(比如书籍、网页上的文字),还能理解图片和视频。xGen-MM框架包含了数据集、训练方法、模型架构,以及一系列经过这些训练... 阅读全文