大语言模型

优惠 HippoRAG:模拟海马体检索的RAG框架

  • HippoRAG:模拟海马体检索的RAG框架
    AI
  • 俄亥俄州立大学和斯坦福大学的研究人员推出一种新型的大语言模型(Large Language Models,简称LLMs)的长期记忆框架,名为HippoRAG。这个框架的设计灵感来源于人类大脑中海马体的索引理论,它帮助我们存储大量的世界知识,并能持续整合新的信息,而不会忘记旧的知识。就像我们人类一样,这种模型可以让计算机... 阅读全文

    优惠 昆仑万维开源2千亿稀疏大模型天工MoE

  • 昆仑万维开源2千亿稀疏大模型天工MoE
    AI
  • 昆仑万维今日宣布开源 2 千亿稀疏大模型 Skywork-MoE,基于之前昆仑万维开源的 Skywork-13B 模型中间 checkpoint 扩展而来,号称是首个完整将 MoE Upcycling 技术应用并落地的开源千亿 MoE 大模型,也是首个支持用单台 RTX 4090 服务器(8 张 RTX 4090 显卡... 阅读全文

    优惠 北京师范大学推出新型4位二阶优化器4-bit Shampoo:为了在深度神经网络(DNN)训练中实现内存高效而设计的

  • 北京师范大学推出新型4位二阶优化器4-bit Shampoo:为了在深度神经网络(DNN)训练中实现内存高效而设计的
    AI
  • 北京师范大学推出一种新型的4位二阶优化器,即"4-bit Shampoo",它是为了在深度神经网络(DNN)训练中实现内存高效而设计的。在机器学习和人工智能领域,优化器是用于调整模型参数以最小化损失函数的算法。二阶优化器因其利用矩阵操作来加速收敛过程而闻名,但它们通常需要更多的内存和计算资源。虽然4-bit Shamp... 阅读全文

    优惠 如何利用小型语言模型来筛选大规模文本数据集的高质量子集,以提高大语言模型的性能

  • 如何利用小型语言模型来筛选大规模文本数据集的高质量子集,以提高大语言模型的性能
    AI
  • Databricks、MIT和DatologyAI的研究人员发布论文,主题是探讨如何利用小型语言模型来筛选大规模文本数据集的高质量子集,以提高大语言模型(LLMs)的性能。具体来说,研究者们研究了基于小型模型的困惑度(perplexity)进行数据筛选的方法,以及这种方法如何受到数据领域组成的影响。 例如,我们有一个大... 阅读全文

    优惠 全新评估基准Video-MME:用来测试多模态大语言模型在视频分析方面的表现

  • 全新评估基准Video-MME:用来测试多模态大语言模型在视频分析方面的表现
    AI
  • Video-MME Team推出全新评估基准Video-MME,它专门用来测试多模态大语言模型(MLLMs)在视频分析方面的表现。多模态意味着模型能够同时处理和理解视频、音频、文本等多种类型的数据。 项目主页:https://video-mme.github.io/home_page.html GitHub:https... 阅读全文

    优惠 新型的深度学习模型架构Transformers are SSMs——Transformers和状态空间模型(State-Space Models,简称SSMs)之间的关系

  • 新型的深度学习模型架构Transformers are SSMs——Transformers和状态空间模型(State-Space Models,简称SSMs)之间的关系
    AI
  • 普林斯顿大学计算机科学系和卡内基梅隆大学机器学习系的研究人员推出一种新型的深度学习模型架构——Transformers和状态空间模型(State-Space Models,简称SSMs)之间的关系,并提出了一种新的架构和高效的算法。论文的标题是“Transformers are SSMs: Generalized Mo... 阅读全文

    优惠 华为诺亚方舟实验室推出VeLoRA:解决大语言模型(LLMs)在训练和微调过程中面临的计算和内存密集问题

  • 华为诺亚方舟实验室推出VeLoRA:解决大语言模型(LLMs)在训练和微调过程中面临的计算和内存密集问题
    AI
  • 华为诺亚方舟实验室推出VeLoRA,它旨在解决大语言模型(LLMs)在训练和微调过程中面临的计算和内存密集问题。尽管大型语言模型在许多语言处理任务上取得了巨大成功,但它们对硬件资源的需求非常高,这限制了它们在现有硬件上的广泛应用。VeLoRA在多个基准测试中的有效性,包括VTAB-1k微调基准测试、GLUE语言基准测试... 阅读全文

    优惠 英特尔推出新型网络架构LLaMA-NAS:保持大语言模型性能的同时,减少模型的大小和计算成本,使得这些模型可以更广泛地应用于各种场景

  • 英特尔推出新型网络架构LLaMA-NAS:保持大语言模型性能的同时,减少模型的大小和计算成本,使得这些模型可以更广泛地应用于各种场景
    AI
  • 英特尔推出LLaMA-NAS,如何高效地优化大型语言模型(LLMs)的网络架构。LLaMA-NAS提供了一种有效的方法,可以在保持大语言模型性能的同时,减少模型的大小和计算成本,使得这些模型可以更广泛地应用于各种场景。例如,你有一台功能强大但耗能巨大的超级计算机,它能够处理复杂的任务,比如理解人类语言、写作文、解决复杂... 阅读全文

    优惠 3D模型生成新型框架GFlow:能够从单目视频(即只用一个摄像头拍摄的视频)中恢复出四维(4D)世界

  • 3D模型生成新型框架GFlow:能够从单目视频(即只用一个摄像头拍摄的视频)中恢复出四维(4D)世界
    AI
  • 新加坡国立大学的研究人员推出新型框架GFlow,它能够从单目视频(即只用一个摄像头拍摄的视频)中恢复出四维(4D)世界。这里的“4D”指的是三维空间加上时间维度,也就是说,GFlow不仅能够重建视频中的场景,还能追踪场景随时间的变化以及摄像头的位置变化。目前GFlow的一些限制,比如依赖于现成的深度估计和光流算法,以及... 阅读全文

    优惠 浪潮信息推出开源MoE模型Yuan 2.0-M32:基于Yuan 2.0-2B的一个变体,采用了一种特殊的架构,其中包含32个专家网络,但每次只有2个专家被激活

  • 浪潮信息推出开源MoE模型Yuan 2.0-M32:基于Yuan 2.0-2B的一个变体,采用了一种特殊的架构,其中包含32个专家网络,但每次只有2个专家被激活
    AI
  • 浪潮信息推出新型混合专家(Mixture of Experts,简称MoE)语言模型Yuan 2.0-M32,这个模型是基于Yuan 2.0-2B的一个变体,采用了一种特殊的架构,其中包含32个专家网络,但每次只有2个专家被激活。这种设计旨在提高模型的计算效率和准确性。实验结果表明,Yuan 2.0-M32在上述应用场... 阅读全文

    优惠 新型深度神经网络(DNN)训练方法2BP:提高大型深度神经网络(如大语言模型)在训练时的效率,特别是在多个加速器(如GPU)上并行训练时

  • 新型深度神经网络(DNN)训练方法2BP:提高大型深度神经网络(如大语言模型)在训练时的效率,特别是在多个加速器(如GPU)上并行训练时
    AI
  • 爱丁堡大学推出一种新的深度神经网络(DNN)训练方法,称为2-Stage Backpropagation(简称2BP)。这种方法旨在提高大型深度神经网络(如大语言模型)在训练时的效率,特别是在多个加速器(如GPU)上并行训练时。论文中通过实验表明,使用2BP在训练具有70亿参数的类似LLaMa的变换器模型时,与传统方法... 阅读全文

    优惠 新型大型双语语言模型系列MAP-Neo:提供高性能和透明度,以推动大语言模型的研究和应用,同时解决现有商业模型不公开透明的问题

  • 新型大型双语语言模型系列MAP-Neo:提供高性能和透明度,以推动大语言模型的研究和应用,同时解决现有商业模型不公开透明的问题
    AI
  • M-A-P、滑铁卢大学武汉人工智能研究中心和01.AI的研究人员推出新型大型双语语言模型系列MAP-Neo,这个模型的主要目标是提供高性能和透明度,以推动大语言模型(LLMs)的研究和应用,同时解决现有商业模型不公开透明的问题。论文还讨论了MAP-Neo对社会的影响,包括促进AI资源的公平获取,以及通过开源创新实践来减... 阅读全文