AI

优惠 LMPC:提高机器人在复杂任务中的学习速度和适应性

  • LMPC:提高机器人在复杂任务中的学习速度和适应性
    AI
  • LMPC是一个创新的框架,它通过结合大语言模型(LLMs)的强大语言理解和生成能力,以及MPC的决策优化技术,显著提高了机器人在复杂任务中的学习速度和适应性。LMPC的核心思想是利用人类反馈来微调LLMs,使其能够更有效地理解和执行人类的指令,从而提高机器人完成任务的效率。 项目主页:https://robot-tea... 阅读全文

    优惠 REALIGN:提升大语言模型(LLMs)与人类价值观的一致性

  • REALIGN:提升大语言模型(LLMs)与人类价值观的一致性
    AI
  • 来自上海交通大学、上海人工智能实验室、复旦大学、马里兰大学帕克分校等研究人员提出一种新方法REALIGN,旨在提升大语言模型(LLMs)与人类价值观的一致性。REALIGN的核心思想是通过改进现有指令数据的质量,而不是从头开始创建新的数据集。这种方法通过三个主要步骤来实现:定义标准、增强检索和重新格式化响应。REALI... 阅读全文

    优惠 多模态大语言模型AnyGPT:无论输入是文字、图片还是声音,AnyGPT都可以理解和生成相应的输出

  • 多模态大语言模型AnyGPT:无论输入是文字、图片还是声音,AnyGPT都可以理解和生成相应的输出
    AI
  • 来自复旦大学和上海AI实验室的研究人员推出多模态大语言模型AnyGPT,通过连接大语言模型与多模态适配器和扩散解码器,AnyGPT实现了对各种模态输入的理解和能够在任意模态中生成输出的能力。可以处理各种不同的信息形式,包括语音、文本、图像和音乐等。这意味着AnyGPT可以理解和生成不仅仅是文字,还包括其他形式的信息,使... 阅读全文

    优惠 新基准测试BABILong:评估自然语言处理(NLP)模型处理长文档和分布式事实的能力

  • 新基准测试BABILong:评估自然语言处理(NLP)模型处理长文档和分布式事实的能力
    AI
  • 新基准测试BABILong旨在评估自然语言处理(NLP)模型处理长文档和分布式事实的能力。BABILong通过在大量文本中“隐藏”问题和答案,模拟了在大量无关信息中寻找关键信息的场景,这对于模型来说是一个挑战。论文还介绍了一种名为Recurrent Memory Transformer(RMT)的模型,它通过增强循环记... 阅读全文

    优惠 RLVF:高效且精准地利用语言反馈,避免过度泛化

  • RLVF:高效且精准地利用语言反馈,避免过度泛化
    AI
  • 这篇论文介绍了一种名为C3PO(Contextualized Critiques with Constrained Preference Optimization)的新方法,它旨在解决如何让大语言模型(LLMs)根据用户的高级口头反馈进行调整,同时避免在不相关的场景中过度泛化这些反馈。C3PO的核心目标是让模型能够理解... 阅读全文

    优惠 开源Python库DataDreamer:帮助研究人员更容易地实现和复现涉及大语言模型(LLMs)的工作流程

  • 开源Python库DataDreamer:帮助研究人员更容易地实现和复现涉及大语言模型(LLMs)的工作流程
    AI
  • 来自宾夕法尼亚大学和多伦多大学的研究人员推出开源Python库DataDreamer,它旨在帮助研究人员更容易地实现和复现涉及大语言模型(LLMs)的工作流程。DataDreamer特别关注于合成数据生成、模型微调、指令调整和对齐等新兴工作流程,这些流程在自然语言处理(NLP)研究中越来越重要。 官网地址:https:... 阅读全文

    优惠 大模型评估工具LLM Comparator:帮助研究人员和工程师更有效地理解和评估大模型的性能

  • 大模型评估工具LLM Comparator:帮助研究人员和工程师更有效地理解和评估大模型的性能
    AI
  • 来自谷歌的研究人员推出大模型评估工具LLM Comparator,它是一个用于交互式分析大语言模型(LLMs)自动并排评估结果的可视化分析工具。这个工具旨在帮助研究人员和工程师更有效地理解和评估LLMs的性能,特别是在模型更新和调整后,如何与基线模型进行比较。 论文地址:https://arxiv.org/abs/24... 阅读全文

    优惠 新型内容推荐框架SPAR:通过分析用户过去的行为和喜好,来预测他们未来可能感兴趣的内容

  • 新型内容推荐框架SPAR:通过分析用户过去的行为和喜好,来预测他们未来可能感兴趣的内容
    AI
  • 来自哥伦比亚大学、Meta与MBZUAI的研究人员推出新型内容推荐框架SPAR(Sparse Poly-Attention for content Recommendation),这个框架的核心目标是利用用户的长期参与历史来提供个性化的内容推荐,比如新闻文章、社交媒体帖子或在线书籍等。简单来说,就是通过分析用户过去的行... 阅读全文

    优惠 新型线性变换器模型ReBased:提高大模型处理长序列信息时的能力

  • 新型线性变换器模型ReBased:提高大模型处理长序列信息时的能力
    AI
  • 新型线性变换器模型ReBased,旨在提高语言模型(LMs)在自然语言处理(NLP)领域中的性能,尤其是在处理长文本序列时。ReBased模型通过改进基于Taylor展开的指数函数的内核函数,增强了模型在上下文学习(In-Context Learning)方面的能力。这种模型特别适用于需要处理大量文本数据的任务,如文本... 阅读全文

    优惠 开源的机器人学习框架UMI:通过学习人类的操作方式,来掌握并完成各种任务

  • 开源的机器人学习框架UMI:通过学习人类的操作方式,来掌握并完成各种任务
    AI
  • 来自斯坦福大学、哥伦比亚大学、丰田研究院的研究人员推出了一数据收集和政策学习框架Universal Manipulation Interface(UMI),它允许人们直接从野外的人类演示中转移技能,然后部署到机器人策略中。换句话说,这个框架的目标是让机器人能够通过学习人类的操作方式,来掌握并完成各种任务。 项目主页:h... 阅读全文

    优惠 低代码/无代码拖放工具Flowise:使用拖放式 UI 创建功能强大的 AI 代理/AI应用

  • 低代码/无代码拖放工具Flowise:使用拖放式 UI 创建功能强大的 AI 代理/AI应用
    AI
  • Flowise是一款低代码/无代码拖放工具,旨在简化人们对于LLM(大语言模型)应用的可视化构建过程,让任何人都能轻松创建和设计LLM应用程序。可以看作是大模型领域的ComfyUI。其开源特性和可自定义的工作流程确保您的项目能够与您的构想完美契合。从测试到生产阶段,Flowise凭借其低代码方法简化了整个过程,大大节省... 阅读全文

    优惠 FNCTOD:利用大语言模型(LLMs)来实现零样本(zero-shot)对话状态跟踪(DST)

  • FNCTOD:利用大语言模型(LLMs)来实现零样本(zero-shot)对话状态跟踪(DST)
    AI
  • 来自加州大学圣巴巴拉分校、卡内基·梅隆大学和Meta的研究人员提出了一种名为FNCTOD(Function Calling for Dialogue State Tracking)的新方法,利用大语言模型(LLMs)来实现零样本(zero-shot)对话状态跟踪(DST),这是一种在特定任务和领域内进行有效对话的技术。... 阅读全文