大语言模型

优惠 SafeInfer:提高大语言模型在生成文本时的安全性

  • SafeInfer:提高大语言模型在生成文本时的安全性
    AI
  • 印度理工学院、微软印度研究院、新加坡科技设计大学的研究人员发布论文,论文的主题是关于如何提高大语言模型在生成文本时的安全性。简单来说,就是教这些智能的计算机程序在回答问题时,怎样避免产生不当或有害的内容。论文还提出了一个名为HARMEVAL的新基准测试,用于评估模型在不同场景下的安全性表现,并且提供了相关代码和数据集的... 阅读全文

    优惠 新训练技术“反思增强(RefAug)”:用于提升语言模型在数学推理任务上的表现

  • 新训练技术“反思增强(RefAug)”:用于提升语言模型在数学推理任务上的表现
    AI
  • 圣母大学和 腾讯人工智能实验室的研究人员推出一种新训练技术“反思增强”(Reflective Augmentation,简称RefAug),用于提升语言模型在数学推理任务上的表现。这项技术的核心思想是让模型在训练过程中不仅仅是学习如何回答问题,而是通过反思来加深对问题的理解,从而提高解决更复杂问题的能力。论文的实验结果... 阅读全文

    优惠 超对齐(Superalignment):使用弱模型(即能力不如强模型的AI)去监督和训练强模型时,是否存在一种被称为“弱到强欺骗”(weak-to-strong deception)的现象

  • 超对齐(Superalignment):使用弱模型(即能力不如强模型的AI)去监督和训练强模型时,是否存在一种被称为“弱到强欺骗”(weak-to-strong deception)的现象
    AI
  • 中国人民大学高岭人工智能学院和腾讯的研究人员发布论文,论文探讨了一个在大语言模型(LLMs)快速发展时代中非常重要的问题:超对齐(Superalignment)。在这种情境下,人类的监督能力相对于模型的超人类能力而言是较弱的。论文的核心关注点是,当我们使用弱模型(即能力不如强模型的AI)去监督和训练强模型时,是否存在一... 阅读全文

    优惠 新型参数高效微调方法MoSLoRA:适用于大语言模型、多模态模型和扩散模型,旨在通过一种计算效率高、易于实现的方式,提高模型对特定任务的适应性

  • 新型参数高效微调方法MoSLoRA:适用于大语言模型、多模态模型和扩散模型,旨在通过一种计算效率高、易于实现的方式,提高模型对特定任务的适应性
    AI
  • 香港大学和腾讯人工智能实验室的研究人员推出新型参数高效微调方法Mixture-of-Subspaces LoRA(简称MoSLoRA),这种方法适用于大语言模型、多模态模型和扩散模型,旨在通过一种计算效率高、易于实现的方式,提高模型对特定任务的适应性。MoSLoRA是一种既节省资源又能够提升大型模型性能的有效微调方法,... 阅读全文

    优惠 加州大学伯克利分校推出BenchBuilder的系统:自动从众包平台收集的数据中筛选出高质量的测试题目

  • 加州大学伯克利分校推出BenchBuilder的系统:自动从众包平台收集的数据中筛选出高质量的测试题目
    AI
  • 加州大学伯克利分校推出BenchBuilder的系统,它的主要功能是自动从众包平台(如Chatbot Arena)收集的数据中筛选出高质量的测试题目。这些测试题目能够很好地区分不同模型的能力,并且与人类的评价标准保持一致。例如,我们想测试一个语言模型是否能够很好地理解医学领域的术语,BenchBuilder可以筛选出需... 阅读全文

    优惠 attack-agent:多模态智能体的安全性研究,特别是探讨了这些智能体在面对对抗性攻击时的脆弱性

  • attack-agent:多模态智能体的安全性研究,特别是探讨了这些智能体在面对对抗性攻击时的脆弱性
    AI
  • 卡内基·梅隆大学的研究人员发布论文,论文的主题是关于对多模态智能体(能够处理视觉和语言信息的AI系统)的安全性研究,特别是探讨了这些智能体在面对对抗性攻击时的脆弱性。多模态智能体被设计用来在真实环境中执行任务,比如网上购物代理,它们可以根据用户的指令来选择商品。论文通过实验表明,即使在对抗性攻击下,通过适当的防御措施,... 阅读全文

    优惠 Safety Arithmetic:确保大语言模型在各种使用场景下的安全性

  • Safety Arithmetic:确保大语言模型在各种使用场景下的安全性
    AI
  • 新加坡科技设计大学和印度理工学院 Kharagpur 分校的研究人员发布论文,论文的主题是关于如何确保大型语言模型(LLMs)在各种使用场景下的安全性。随着这些模型在翻译、问答等应用中的广泛使用,确保它们与人类价值观保持一致,不产生有害内容,变得尤为重要。通过这种方法,研究人员能够在不牺牲模型实用性的前提下,显著提高模... 阅读全文

    优惠 Humor in AI:关于AI在幽默创作领域的研究,特别是针对卡通漫画的标题生成

  • Humor in AI:关于AI在幽默创作领域的研究,特别是针对卡通漫画的标题生成
    AI
  • 威斯康星大学麦迪逊分校和华盛顿大学西雅图分校的研究人员发布论文,论文的主题是关于人工智能(AI)在幽默创作领域的研究,特别是针对卡通漫画的标题生成。研究人员通过收集和分析大量的人类对漫画标题的评价,来训练和评估AI模型在创作幽默标题方面的能力。 例如,《纽约客》杂志发布了一幅漫画,展示了一个穿着宇航服的骑士骑着马,手持... 阅读全文

    优惠 BAL-PM:在大语言模型中通过偏好建模来引导模型的行为,使其更符合人类的偏好

  • BAL-PM:在大语言模型中通过偏好建模来引导模型的行为,使其更符合人类的偏好
    AI
  • 这篇论文的主题是关于如何在大语言模型(Large Language Models,简称LLMs)中通过偏好建模来引导模型的行为,使其更符合人类的偏好。简单来说,就是教一个大型的人工智能模型如何更好地理解并满足人们的需求。论文中提出的BAL-PM(Bayesian Active Learner for Preferenc... 阅读全文

    优惠 ServiceNow推出新型问题回答数据集REPLIQA:专门设计用来评估大语言模型在处理未见过的参考内容时的性能

  • ServiceNow推出新型问题回答数据集REPLIQA:专门设计用来评估大语言模型在处理未见过的参考内容时的性能
    AI
  • ServiceNow推出新型问题回答数据集REPLIQA,它专门设计用来评估大语言模型(LLMs)在处理未见过的参考内容时的性能。这个数据集的创建是为了解决现有评估方法可能存在的数据泄露问题,即模型可能在训练阶段就已经接触过测试数据,这样就不能准确评估模型的真正能力。 数据集地址:https://huggingface... 阅读全文

    优惠 数据集RABBITS:大语言模型在生物医学领域应用时的一个特定问题:对药物名称的脆弱性

  • 数据集RABBITS:大语言模型在生物医学领域应用时的一个特定问题:对药物名称的脆弱性
    AI
  • 麻省理工学院、哈佛大学、麻省总医院、波士顿儿童医院、奥胡斯大学、弗吉尼亚大学、马斯特里赫特大学、庞培法布拉大学和贝斯以色列女执事医疗中心的研究人员发布论文,讨论了大语言模型(LLMs)在生物医学领域应用时的一个特定问题:对药物名称的脆弱性。特别是在处理品牌名和通用名之间的替换时,模型的性能可能会显著下降。研究者们创建了... 阅读全文

    优惠 韩国科学技术研究院推出新方法TroL:提升大型语言和视觉模型(LLVMs)的效率和性能

  • 韩国科学技术研究院推出新方法TroL:提升大型语言和视觉模型(LLVMs)的效率和性能
    AI
  • 韩国科学技术研究院推出新方法TroL(Traversal of Layers,即层次遍历),它用于提升大型语言和视觉模型(LLVMs)的效率和性能。TroL的核心思想是通过在模型中重复使用层(即“层次遍历”),来模拟人类在回答问题时回顾和重新审视信息的过程,从而在不增加额外计算负担的情况下提高模型的理解和生成能力。论文... 阅读全文