人工智能

优惠 USER-LLM框架:用于改进大语言模型(LLMs)以更好地理解和适应用户交互数据

  • USER-LLM框架:用于改进大语言模型(LLMs)以更好地理解和适应用户交互数据
    AI
  • 来自谷歌的研究人员发布论文介绍了一个名为USER-LLM的框架,它是一个用于改进大语言模型(LLMs)以更好地理解和适应用户交互数据的系统。USER-LLM通过使用用户嵌入(user embeddings)来为LLMs提供上下文信息,这些嵌入是从用户的多样化交互数据中自动学习得到的,能够捕捉用户的偏好和行为模式。 论文... 阅读全文

    优惠 一种新颖的音乐风格转换方法:利用了扩散模型和时间变化的文本反演技术

  • 一种新颖的音乐风格转换方法:利用了扩散模型和时间变化的文本反演技术
    AI
  • 来自中国科学院自动化研究所、中国科学院大学人工智能学院、中国科学院计算技术研究所和快手的研究人员提出一种新颖的音乐风格转换方法,它利用了扩散模型和时间变化的文本反演技术。这种方法可以有效地捕捉音乐属性,即使在数据量很少的情况下也能实现。它通过一个创新的时间变化文本反演模块来精确捕捉不同层次的梅尔频谱图特征,并在推理过程... 阅读全文

    优惠 大语言模型(LLMs)在面对对抗性攻击时的脆弱性

  • 大语言模型(LLMs)在面对对抗性攻击时的脆弱性
    AI
  • 来自马里兰大学帕克分校的研究人员发布论文探讨了大语言模型(LLMs)在面对对抗性攻击时的脆弱性。对抗性攻击是指故意设计输入,以诱导模型产生非预期或有害的输出。论文的主要目的是扩展我们对LLMs对抗性攻击的理解,不仅仅是“越狱”(即让模型产生违反其训练目标的输出),而是包括更广泛的攻击类型和目标。 论文地址:https:... 阅读全文

    优惠 浪潮信息发布智能AI助手YuanChat,可在Windows电脑上本地化部署

  • 浪潮信息发布智能AI助手YuanChat,可在Windows电脑上本地化部署
    AI
  • 据浪潮服务器微信公众号发文,昨日,基于Yuan2.0-2B模型的智能AI助手YuanChat发布,其可以在Windows电脑上本地化部署。据介绍,YuanChat是专为源2.0大模型设计的客户端应用,集成了模型推理服务和聊天交互界面,具备代码生成、代码解析、数学计算、逻辑推理、知识问答、文案创作等能力。(官方介绍) G... 阅读全文

    优惠 Gemma:谷歌推出新一代先进开源模型,轻量级高性能,助力AI创新

  • Gemma:谷歌推出新一代先进开源模型,轻量级高性能,助力AI创新
    AI
  • 谷歌推出开源模型Gemma,这是一款轻量级、先进的开源模型,供开发者和研究人员用于AI构建。Gemma模型家族包括Gemma 2B和Gemma 7B两种尺寸,能够在不同的设备类型上运行,包括笔记本电脑、桌面电脑、IoT设备、移动设备和云端。 以下是谷歌官方介绍全文翻译: 在谷歌,我们深信应当让AI惠及每一个人。长期以来... 阅读全文

    优惠 用于3D形状生成的自回归(Auto-regressive)模型Argus3D

  • 用于3D形状生成的自回归(Auto-regressive)模型Argus3D
    AI
  • 这篇论文介绍了一个名为Argus3D的新型框架,它是一个用于3D形状生成的自回归(Auto-regressive)模型。Argus3D通过改进自回归模型的容量和可扩展性,实现了在3D领域中的高效形状生成。这个模型利用了一个名为Objaverse-Mix的大型3D数据集,该数据集包含了约90万个多样化的物体,这些物体具有... 阅读全文

    优惠 多模态大语言模型FinTral:专门为金融分析设计

  • 多模态大语言模型FinTral:专门为金融分析设计
    AI
  • 来自哥伦比亚大学的研究人员推出多模态大语言模型FinTral,它专门为金融分析设计。FinTral模型能够整合文本、数值、表格和图像数据,通过在金融领域的特定数据集上进行预训练、指令微调和强化学习,使其在处理金融文档和数据时表现出色。FinTral模型还引入了一个名为FinSet的广泛基准测试,用于评估模型在多种金融任... 阅读全文

    优惠 基于多智能体协作的大语言模型(LLM)扩展方法LONGAGENT

  • 基于多智能体协作的大语言模型(LLM)扩展方法LONGAGENT
    AI
  • 来自复旦大学的研究人员推出一种基于多智能体协作的大语言模型(LLM)扩展方法LONGAGENT,LONGAGENT的目标是解决大语言模型在处理长文本时遇到的高昂训练成本和推理延迟问题。通过这种方法,大语言模型能够处理超过100k(10万个)token的长文本,这在传统的大语言模型中是一个挑战,因为它们通常在处理超过这个... 阅读全文

    优惠 用于视觉指令调优(Visual Instruction Tuning)的数据集VISION-FLAN

  • 用于视觉指令调优(Visual Instruction Tuning)的数据集VISION-FLAN
    AI
  • 来自弗吉尼亚理工大学、华盛顿大学、密歇根大学、亚马逊、微软、Meta AI的研究人员推出用于视觉指令调优(Visual Instruction Tuning)的数据集VISION-FLAN。这个系统旨在提高视觉语言模型(VLMs)在理解和执行视觉任务方面的能力,特别是在处理多样化任务和遵循人类偏好方面。 论文地址:ht... 阅读全文

    优惠 Stepwise ORMs (SORMs):改进大语言模型的推理能力,通过全局和局部的精炼来提升其在数学、科学或编程等任务上的表现

  • Stepwise ORMs (SORMs):改进大语言模型的推理能力,通过全局和局部的精炼来提升其在数学、科学或编程等任务上的表现
    AI
  • 来自Meta 、、乔治亚理工学院、StabilityAI的研究人员提出了一种名为“Stepwise ORMs (SORMs)”的方法,旨在提高大语言模型(LLMs)在解决数学、科学或编程问题时的推理能力这是一种在合成数据上训练的模型,用于更准确地预测最终答案的正确性,从而帮助LLMs在需要时进行自我修正。 论文地址:h... 阅读全文

    优惠 Speculative Streaming:加速大语言模型的推理过程,而无需依赖辅助模型

  • Speculative Streaming:加速大语言模型的推理过程,而无需依赖辅助模型
    AI
  • 论文的主题是关于一种名为“Speculative Streaming”的方法,旨在加速大语言模型(LLMs)的推理过程,而无需依赖辅助模型。这种方法通过在目标模型内部融合起草(drafting)和验证(verification)过程,实现了对解码速度的显著提升。Speculative Streaming通过在单一模型内... 阅读全文

    优惠 OneBit:保持模型性能的同时,大幅减少模型的存储和计算开销

  • OneBit:保持模型性能的同时,大幅减少模型的存储和计算开销
    AI
  • 来自清华大学和哈尔滨工业大学的研究人员推出一种名为“OneBit”的方法,它旨在将大语言模型(LLMs)的权重矩阵量化到极低比特宽度,即1比特,以实现模型的高效部署。这种方法特别关注于在保持模型性能的同时,大幅减少模型的存储和计算开销。 论文地址:https://arxiv.org/abs/2402.11295 主要功... 阅读全文