人工智能

优惠 苹果发力AI开源领域:Hugging Face新增20个Core ML模型

  • 苹果发力AI开源领域:Hugging Face新增20个Core ML模型
    AI
  • 苹果公司近日在开放源代码人工智能社区Hugging Face上显著扩大了其贡献,上传了20个新的核心机器学习模型。这一举动是对4月份发布的4个开源高效语言模型(OpenELMs)的有力补充,同样托管于Hugging Face平台。此次更新不仅涵盖了多样化的文本处理模型,也包括面向图像识别与处理的任务(例如图像分类和深度... 阅读全文

    优惠 基准测试MMNeedle:专门用来考验这些模型在复杂视觉和文本环境中检索特定信息的能力

  • 基准测试MMNeedle:专门用来考验这些模型在复杂视觉和文本环境中检索特定信息的能力
    AI
  • 罗格斯大学、微软研究院等研究人员推出基准测试“MultiModal Needle-in-a-haystack”(简称MMNeedle),评估和测试多模态大型语言模型(Multimodal Large Language Models,简称MLLMs)在处理长文本上下文方面的能力,专门用来考验这些模型在复杂视觉和文本环境中... 阅读全文

    优惠 为视觉变换器(ViTs)这类深度学习模型提供可信的概念性解释

  • 为视觉变换器(ViTs)这类深度学习模型提供可信的概念性解释
    AI
  • 这篇论文的主题是关于如何为视觉变换器(Vision Transformers,简称ViTs)这类深度学习模型提供可信的概念性解释。简单来说,就是帮助人们理解这些复杂的AI模型是如何"思考"的,特别是在图像识别任务中。论文还提到了一些定量和定性的结果,证明了PACE在多个数据集上相比于现有方法的优势。此外,论文讨论了PA... 阅读全文

    优惠 新基准测试套件Long Code Arena:专门设计用来评估和提升代码处理模型在长文本上下文环境中的表现

  • 新基准测试套件Long Code Arena:专门设计用来评估和提升代码处理模型在长文本上下文环境中的表现
    AI
  • JetBrains Research和代尔夫特理工大学推出新基准测试套件Long Code Arena,它专门设计用来评估和提升代码处理模型在长文本上下文环境中的表现。简单来说,它是一个挑战场,让计算机程序在编写、理解和修复代码时,能够更好地利用整个项目的信息,而不仅仅是单个文件或函数。Long Code Arena的... 阅读全文

    优惠 SafeInfer:提高大语言模型在生成文本时的安全性

  • SafeInfer:提高大语言模型在生成文本时的安全性
    AI
  • 印度理工学院、微软印度研究院、新加坡科技设计大学的研究人员发布论文,论文的主题是关于如何提高大语言模型在生成文本时的安全性。简单来说,就是教这些智能的计算机程序在回答问题时,怎样避免产生不当或有害的内容。论文还提出了一个名为HARMEVAL的新基准测试,用于评估模型在不同场景下的安全性表现,并且提供了相关代码和数据集的... 阅读全文

    优惠 新训练技术“反思增强(RefAug)”:用于提升语言模型在数学推理任务上的表现

  • 新训练技术“反思增强(RefAug)”:用于提升语言模型在数学推理任务上的表现
    AI
  • 圣母大学和 腾讯人工智能实验室的研究人员推出一种新训练技术“反思增强”(Reflective Augmentation,简称RefAug),用于提升语言模型在数学推理任务上的表现。这项技术的核心思想是让模型在训练过程中不仅仅是学习如何回答问题,而是通过反思来加深对问题的理解,从而提高解决更复杂问题的能力。论文的实验结果... 阅读全文

    优惠 超对齐(Superalignment):使用弱模型(即能力不如强模型的AI)去监督和训练强模型时,是否存在一种被称为“弱到强欺骗”(weak-to-strong deception)的现象

  • 超对齐(Superalignment):使用弱模型(即能力不如强模型的AI)去监督和训练强模型时,是否存在一种被称为“弱到强欺骗”(weak-to-strong deception)的现象
    AI
  • 中国人民大学高岭人工智能学院和腾讯的研究人员发布论文,论文探讨了一个在大语言模型(LLMs)快速发展时代中非常重要的问题:超对齐(Superalignment)。在这种情境下,人类的监督能力相对于模型的超人类能力而言是较弱的。论文的核心关注点是,当我们使用弱模型(即能力不如强模型的AI)去监督和训练强模型时,是否存在一... 阅读全文

    优惠 新型参数高效微调方法MoSLoRA:适用于大语言模型、多模态模型和扩散模型,旨在通过一种计算效率高、易于实现的方式,提高模型对特定任务的适应性

  • 新型参数高效微调方法MoSLoRA:适用于大语言模型、多模态模型和扩散模型,旨在通过一种计算效率高、易于实现的方式,提高模型对特定任务的适应性
    AI
  • 香港大学和腾讯人工智能实验室的研究人员推出新型参数高效微调方法Mixture-of-Subspaces LoRA(简称MoSLoRA),这种方法适用于大语言模型、多模态模型和扩散模型,旨在通过一种计算效率高、易于实现的方式,提高模型对特定任务的适应性。MoSLoRA是一种既节省资源又能够提升大型模型性能的有效微调方法,... 阅读全文

    优惠 加州大学伯克利分校推出BenchBuilder的系统:自动从众包平台收集的数据中筛选出高质量的测试题目

  • 加州大学伯克利分校推出BenchBuilder的系统:自动从众包平台收集的数据中筛选出高质量的测试题目
    AI
  • 加州大学伯克利分校推出BenchBuilder的系统,它的主要功能是自动从众包平台(如Chatbot Arena)收集的数据中筛选出高质量的测试题目。这些测试题目能够很好地区分不同模型的能力,并且与人类的评价标准保持一致。例如,我们想测试一个语言模型是否能够很好地理解医学领域的术语,BenchBuilder可以筛选出需... 阅读全文

    优惠 新型视频编辑框架VIA:对视频进行编辑时,确保编辑效果在整个视频序列中保持一致性

  • 新型视频编辑框架VIA:对视频进行编辑时,确保编辑效果在整个视频序列中保持一致性
    AI
  • 加州大学圣克鲁斯分校、Snap Research、 KAUST和德克萨斯大学达拉斯分校的研究人员推出新型视频编辑框架VIA(Video Adaptation Framework),VIA专注于提供一种统一的方法来处理视频编辑中的两个主要挑战:全局和局部的时空一致性。简而言之,VIA的目标是在对视频进行编辑时,确保编辑效... 阅读全文

    优惠 attack-agent:多模态智能体的安全性研究,特别是探讨了这些智能体在面对对抗性攻击时的脆弱性

  • attack-agent:多模态智能体的安全性研究,特别是探讨了这些智能体在面对对抗性攻击时的脆弱性
    AI
  • 卡内基·梅隆大学的研究人员发布论文,论文的主题是关于对多模态智能体(能够处理视觉和语言信息的AI系统)的安全性研究,特别是探讨了这些智能体在面对对抗性攻击时的脆弱性。多模态智能体被设计用来在真实环境中执行任务,比如网上购物代理,它们可以根据用户的指令来选择商品。论文通过实验表明,即使在对抗性攻击下,通过适当的防御措施,... 阅读全文

    优惠 Safety Arithmetic:确保大语言模型在各种使用场景下的安全性

  • Safety Arithmetic:确保大语言模型在各种使用场景下的安全性
    AI
  • 新加坡科技设计大学和印度理工学院 Kharagpur 分校的研究人员发布论文,论文的主题是关于如何确保大型语言模型(LLMs)在各种使用场景下的安全性。随着这些模型在翻译、问答等应用中的广泛使用,确保它们与人类价值观保持一致,不产生有害内容,变得尤为重要。通过这种方法,研究人员能够在不牺牲模型实用性的前提下,显著提高模... 阅读全文