大语言模型

优惠 新型智能对话推荐系统ILM:结合了大语言模型的理解和生成能力以及推荐系统的个性化推荐功能

  • 新型智能对话推荐系统ILM:结合了大语言模型的理解和生成能力以及推荐系统的个性化推荐功能
    AI
  • 谷歌推出一种新型的对话推荐系统,称为“Item-Language Model”(ILM)。这个系统结合了大语言模型(LLMs)的理解和生成能力以及推荐系统的个性化推荐功能。例如,你正在和一个非常聪明的在线购物助手聊天。你告诉它你想要一双新的运动鞋,它不仅能理解你的需求,还能根据你过去的购物习惯和其他用户的选择来推荐几款... 阅读全文

    优惠 创新的知识蒸馏方法PLaD:用于从大语言模型中提取知识并将其传授给更紧凑的学生模型

  • 创新的知识蒸馏方法PLaD:用于从大语言模型中提取知识并将其传授给更紧凑的学生模型
    AI
  • 佐治亚理工学院和谷歌的研究人员推出新方法PLaD(Preference-based Large Language Model Distillation),它用于从大语言模型(LLMs)中提取知识并将其传授给更紧凑的学生模型。这种方法特别适用于资源受限的环境中,能够有效地减少模型的内存占用和推理成本。 例如,你有一个非常... 阅读全文

    优惠 小多科技推出新型语言模型Xmodel-LM:紧凑高效的11亿参数(1.1B)模型,预训练于超过2万亿个token的数据集之上

  • 小多科技推出新型语言模型Xmodel-LM:紧凑高效的11亿参数(1.1B)模型,预训练于超过2万亿个token的数据集之上
    AI
  • 小多科技推出新型语言模型Xmodel-LM,它是一个紧凑高效的11亿参数(1.1B)模型,预训练于超过2万亿个token的数据集之上。Xmodel-LM的特点在于它在较小的模型规模下,却能展现出与现有开源语言模型相似或更优的性能。例如,你有一个智能助手,它可以帮助你回答问题、撰写文章,甚至学习新的语言。但通常这些助手需... 阅读全文

    优惠 强化学习算法DAAs:人类反馈强化学习中的应用

  • 强化学习算法DAAs:人类反馈强化学习中的应用
    AI
  • 斯坦福大学、马萨诸塞大学阿默斯特分校和德克萨斯大学奥斯汀分校的研究人员推出强化学习算法Direct Alignment Algorithms(直接对齐算法,简称DAAs),特别是在人类反馈强化学习(Reinforcement Learning from Human Feedback,简称RLHF)中的应用。RLHF是一... 阅读全文

    优惠 新型音频表示学习模型Audio Mamba:基于状态空间模型构建的

  • 新型音频表示学习模型Audio Mamba:基于状态空间模型构建的
    AI
  • 韩国科学技术院推出新型音频表示学习模型Audio Mamba(AuM),它是基于状态空间模型(State Space Models, SSMs)构建的,与传统的基于自注意力(self-attention)机制的Transformer模型不同,AuM不依赖于计算密集型的自注意力机制。例如,我们有一段音频,我们想要识别这段... 阅读全文

    优惠 新型神经网络架构Block Transformer:用于提升自然语言处理(NLP)任务中的推断速度

  • 新型神经网络架构Block Transformer:用于提升自然语言处理(NLP)任务中的推断速度
    AI
  • 韩国科学技术研究院、LG 人工智能研究和Google DeepMind的研究人员推出新型神经网络架构Block Transformer,它主要用于提升自然语言处理(NLP)任务中的推断速度。在NLP中,Transformer模型是一种非常强大的工具,它能够处理诸如语言翻译、文本摘要等任务。但传统的Transformer... 阅读全文

    优惠 新型图像到3D生成框架Ouroboros3D:将多视角图像生成和3D重建集成到一个递归扩散过程中,通过自条件机制联合训练这两个模块,使它们能够相互适应,从而实现更稳健的推理

  • 新型图像到3D生成框架Ouroboros3D:将多视角图像生成和3D重建集成到一个递归扩散过程中,通过自条件机制联合训练这两个模块,使它们能够相互适应,从而实现更稳健的推理
    AI
  • 北京航空航天大学、上海人工智能实验室和VAST推出新型图像到3D生成框架Ouroboros3D,这个框架的核心特点是将多视角图像生成和3D重建集成到一个递归扩散过程中,通过自条件机制联合训练这两个模块,使它们能够相互适应,从而实现更稳健的推理。实验结果,证明了Ouroboros3D在生成多视角图像和3D表示的质量上优于... 阅读全文

    优惠 Mobile-Agent-v2: 通过多代理协作有效导航的移动设备操作助手

  • Mobile-Agent-v2: 通过多代理协作有效导航的移动设备操作助手
    AI
  • 北京交通大学和阿里巴巴集团的研究人员推出移动设备操作助手Mobile-Agent-v2,它通过多智能体(多个代理)的协作来有效导航和执行任务。这个系统是为了解决现有技术在处理移动设备操作任务时面临的两大挑战:任务进度导航和焦点内容导航。这些挑战在单一智能体架构下很难有效解决,主要是因为操作历史序列很长,且包含交错的文本... 阅读全文

    优惠 大规模仿真框架RoboCasa:为了训练能够在日常生活环境中工作的通用机器人代理而设计

  • 大规模仿真框架RoboCasa:为了训练能够在日常生活环境中工作的通用机器人代理而设计
    AI
  • 德克萨斯大学奥斯汀分校和英伟达的研究人员推出大规模仿真框架RoboCasa,它是为了训练能够在日常生活环境中工作的通用机器人代理而设计的。RoboCasa的核心是提供一个现实且多样化的厨房环境,它包含了大量的3D资产、不同的任务以及超过100,000条轨迹的大型训练数据集。论文还提到了实验结果,显示了使用仿真生成的机器... 阅读全文

    优惠 如何在大语言模型中量化不确定性,特别是当我们需要判断模型给出的回答是否可靠时

  • 如何在大语言模型中量化不确定性,特别是当我们需要判断模型给出的回答是否可靠时
    AI
  • Google DeepMind发布论文,主题是探讨如何在大语言模型(LLMs)中量化不确定性,特别是当我们需要判断模型给出的回答是否可靠时。研究者们区分了两种不确定性:认识不确定性(epistemic uncertainty)和随机不确定性(aleatoric uncertainty)。认识不确定性来源于对真实情况(比... 阅读全文

    优惠 Cohere推出新型AI优化方法SRPO:让AI系统通过学习人类的偏好来提升其性能

  • Cohere推出新型AI优化方法SRPO:让AI系统通过学习人类的偏好来提升其性能
    AI
  • Cohere推出一种新型的人工智能(AI)优化方法,名为“自我改进的鲁棒偏好优化”(Self-Improving Robust Preference Optimization,简称SRPO)。这种方法主要针对的是让AI系统通过学习人类的偏好来提升其性能,同时确保其在面对不同类型的任务时都能保持稳定和鲁棒的表现。 主要功... 阅读全文

    优惠 智谱 AI开源GLM-4-9B系列模型:包含基座模型、不同上下文长度的Chat模型和视觉模型

  • 智谱 AI开源GLM-4-9B系列模型:包含基座模型、不同上下文长度的Chat模型和视觉模型
    AI
  • 智谱 AI推出的最新一代预训练模型 GLM-4 系列中的开源版本GLM-4-9B 。 在语义、数学、推理、代码和知识等多方面的数据集测评中, GLM-4-9B 及其人类偏好对齐的版本 GLM-4-9B-Chat 均表现出超越 Llama-3-8B 的卓越性能。除了能进行多轮对话,GLM-4-9B-Chat 还具备网页浏... 阅读全文