推荐类别

栏目分类

优惠 新基准测试套件Long Code Arena:专门设计用来评估和提升代码处理模型在长文本上下文环境中的表现

  • 新基准测试套件Long Code Arena:专门设计用来评估和提升代码处理模型在长文本上下文环境中的表现
    AI
  • JetBrains Research和代尔夫特理工大学推出新基准测试套件Long Code Arena,它专门设计用来评估和提升代码处理模型在长文本上下文环境中的表现。简单来说,它是一个挑战场,让计算机程序在编写、理解和修复代码时,能够更好地利用整个项目的信息,而不仅仅是单个文件或函数。Long Code Arena的... 阅读全文

    优惠 SafeInfer:提高大语言模型在生成文本时的安全性

  • SafeInfer:提高大语言模型在生成文本时的安全性
    AI
  • 印度理工学院、微软印度研究院、新加坡科技设计大学的研究人员发布论文,论文的主题是关于如何提高大语言模型在生成文本时的安全性。简单来说,就是教这些智能的计算机程序在回答问题时,怎样避免产生不当或有害的内容。论文还提出了一个名为HARMEVAL的新基准测试,用于评估模型在不同场景下的安全性表现,并且提供了相关代码和数据集的... 阅读全文

    优惠 新训练技术“反思增强(RefAug)”:用于提升语言模型在数学推理任务上的表现

  • 新训练技术“反思增强(RefAug)”:用于提升语言模型在数学推理任务上的表现
    AI
  • 圣母大学和 腾讯人工智能实验室的研究人员推出一种新训练技术“反思增强”(Reflective Augmentation,简称RefAug),用于提升语言模型在数学推理任务上的表现。这项技术的核心思想是让模型在训练过程中不仅仅是学习如何回答问题,而是通过反思来加深对问题的理解,从而提高解决更复杂问题的能力。论文的实验结果... 阅读全文

    优惠 超对齐(Superalignment):使用弱模型(即能力不如强模型的AI)去监督和训练强模型时,是否存在一种被称为“弱到强欺骗”(weak-to-strong deception)的现象

  • 超对齐(Superalignment):使用弱模型(即能力不如强模型的AI)去监督和训练强模型时,是否存在一种被称为“弱到强欺骗”(weak-to-strong deception)的现象
    AI
  • 中国人民大学高岭人工智能学院和腾讯的研究人员发布论文,论文探讨了一个在大语言模型(LLMs)快速发展时代中非常重要的问题:超对齐(Superalignment)。在这种情境下,人类的监督能力相对于模型的超人类能力而言是较弱的。论文的核心关注点是,当我们使用弱模型(即能力不如强模型的AI)去监督和训练强模型时,是否存在一... 阅读全文

    优惠 新型参数高效微调方法MoSLoRA:适用于大语言模型、多模态模型和扩散模型,旨在通过一种计算效率高、易于实现的方式,提高模型对特定任务的适应性

  • 新型参数高效微调方法MoSLoRA:适用于大语言模型、多模态模型和扩散模型,旨在通过一种计算效率高、易于实现的方式,提高模型对特定任务的适应性
    AI
  • 香港大学和腾讯人工智能实验室的研究人员推出新型参数高效微调方法Mixture-of-Subspaces LoRA(简称MoSLoRA),这种方法适用于大语言模型、多模态模型和扩散模型,旨在通过一种计算效率高、易于实现的方式,提高模型对特定任务的适应性。MoSLoRA是一种既节省资源又能够提升大型模型性能的有效微调方法,... 阅读全文

    优惠 加州大学伯克利分校推出BenchBuilder的系统:自动从众包平台收集的数据中筛选出高质量的测试题目

  • 加州大学伯克利分校推出BenchBuilder的系统:自动从众包平台收集的数据中筛选出高质量的测试题目
    AI
  • 加州大学伯克利分校推出BenchBuilder的系统,它的主要功能是自动从众包平台(如Chatbot Arena)收集的数据中筛选出高质量的测试题目。这些测试题目能够很好地区分不同模型的能力,并且与人类的评价标准保持一致。例如,我们想测试一个语言模型是否能够很好地理解医学领域的术语,BenchBuilder可以筛选出需... 阅读全文

    优惠 新型视频编辑框架VIA:对视频进行编辑时,确保编辑效果在整个视频序列中保持一致性

  • 新型视频编辑框架VIA:对视频进行编辑时,确保编辑效果在整个视频序列中保持一致性
    AI
  • 加州大学圣克鲁斯分校、Snap Research、 KAUST和德克萨斯大学达拉斯分校的研究人员推出新型视频编辑框架VIA(Video Adaptation Framework),VIA专注于提供一种统一的方法来处理视频编辑中的两个主要挑战:全局和局部的时空一致性。简而言之,VIA的目标是在对视频进行编辑时,确保编辑效... 阅读全文

    优惠 attack-agent:多模态智能体的安全性研究,特别是探讨了这些智能体在面对对抗性攻击时的脆弱性

  • attack-agent:多模态智能体的安全性研究,特别是探讨了这些智能体在面对对抗性攻击时的脆弱性
    AI
  • 卡内基·梅隆大学的研究人员发布论文,论文的主题是关于对多模态智能体(能够处理视觉和语言信息的AI系统)的安全性研究,特别是探讨了这些智能体在面对对抗性攻击时的脆弱性。多模态智能体被设计用来在真实环境中执行任务,比如网上购物代理,它们可以根据用户的指令来选择商品。论文通过实验表明,即使在对抗性攻击下,通过适当的防御措施,... 阅读全文

    优惠 Safety Arithmetic:确保大语言模型在各种使用场景下的安全性

  • Safety Arithmetic:确保大语言模型在各种使用场景下的安全性
    AI
  • 新加坡科技设计大学和印度理工学院 Kharagpur 分校的研究人员发布论文,论文的主题是关于如何确保大型语言模型(LLMs)在各种使用场景下的安全性。随着这些模型在翻译、问答等应用中的广泛使用,确保它们与人类价值观保持一致,不产生有害内容,变得尤为重要。通过这种方法,研究人员能够在不牺牲模型实用性的前提下,显著提高模... 阅读全文

    优惠 Humor in AI:关于AI在幽默创作领域的研究,特别是针对卡通漫画的标题生成

  • Humor in AI:关于AI在幽默创作领域的研究,特别是针对卡通漫画的标题生成
    AI
  • 威斯康星大学麦迪逊分校和华盛顿大学西雅图分校的研究人员发布论文,论文的主题是关于人工智能(AI)在幽默创作领域的研究,特别是针对卡通漫画的标题生成。研究人员通过收集和分析大量的人类对漫画标题的评价,来训练和评估AI模型在创作幽默标题方面的能力。 例如,《纽约客》杂志发布了一幅漫画,展示了一个穿着宇航服的骑士骑着马,手持... 阅读全文

    优惠 BAL-PM:在大语言模型中通过偏好建模来引导模型的行为,使其更符合人类的偏好

  • BAL-PM:在大语言模型中通过偏好建模来引导模型的行为,使其更符合人类的偏好
    AI
  • 这篇论文的主题是关于如何在大语言模型(Large Language Models,简称LLMs)中通过偏好建模来引导模型的行为,使其更符合人类的偏好。简单来说,就是教一个大型的人工智能模型如何更好地理解并满足人们的需求。论文中提出的BAL-PM(Bayesian Active Learner for Preferenc... 阅读全文

    优惠 ServiceNow推出新型问题回答数据集REPLIQA:专门设计用来评估大语言模型在处理未见过的参考内容时的性能

  • ServiceNow推出新型问题回答数据集REPLIQA:专门设计用来评估大语言模型在处理未见过的参考内容时的性能
    AI
  • ServiceNow推出新型问题回答数据集REPLIQA,它专门设计用来评估大语言模型(LLMs)在处理未见过的参考内容时的性能。这个数据集的创建是为了解决现有评估方法可能存在的数据泄露问题,即模型可能在训练阶段就已经接触过测试数据,这样就不能准确评估模型的真正能力。 数据集地址:https://huggingface... 阅读全文
    我要爆料 我的收藏 顶部
    快速登录

    自动登录 忘记密码?