大语言模型

优惠 评估基准方法TOFUEVAL:评估大语言模型(LLMs)在特定主题对话摘要生成中的准确性

  • 评估基准方法TOFUEVAL:评估大语言模型(LLMs)在特定主题对话摘要生成中的准确性
    AI
  • 来自亚马逊AWS AI 实验室、韩国科学院、德克萨斯大学奥斯汀分校的研究人员推出新的评估基准方法TOFUEVAL,评估大语言模型(LLMs)在特定主题对话摘要生成中的准确性。它专注于对话摘要的事实一致性。这个基准通过人类专家对由不同大小的LLMs生成的摘要进行事实一致性的二元句子级标注,并提供详细解释,以揭示不一致的句... 阅读全文

    优惠 GLAN:用于大语言模型(LLMs)的通用和可扩展的指令调整方法

  • GLAN:用于大语言模型(LLMs)的通用和可扩展的指令调整方法
    AI
  • 来自微软的研究人员推出一个名为Generalized Instruction Tuning(简称GLAN)的方法,它是一种用于大语言模型(LLMs)的通用和可扩展的指令调整方法。GLAN的核心思想是利用人类知识的预分类体系作为输入,生成大规模的合成指令数据,覆盖各个学科领域。这种方法不依赖于种子示例或现有数据集来构建指... 阅读全文

    优惠 预指令调优(PIT):让大语言模型在处理新文档时更有效地吸收和应用知识

  • 预指令调优(PIT):让大语言模型在处理新文档时更有效地吸收和应用知识
    AI
  • 来自卡内基梅隆大学、华盛顿大学和Meta的研究人员提出了一种新的训练方法预指令调优(Pre-Instruction-Tuning,简称PIT),让大语言模型在处理新文档时更有效地吸收和应用知识。总的来说,这篇论文提出了一种新的方法来提升LLMs的知识吸收和应用能力,这对于构建更加智能和适应性强的AI系统具有重要意义。 ... 阅读全文

    优惠 AI芯片初创Groq引领新潮流,LPU芯片免费试用展现强大实力

  • AI芯片初创Groq引领新潮流,LPU芯片免费试用展现强大实力
    AI
  • 随着AI聊天机器人的广泛应用,背后所需的庞大数据运算能力使得AI运算芯片的需求日益旺盛。近期,AI芯片初创公司Groq推出了其LPU(语言处理单元)芯片的免费试用活动,凭借卓越性能在社交媒体上引起了广泛关注。 试用地址:https://wow.groq.com API地址:https://wow.groq.com Gr... 阅读全文

    优惠 REALIGN:提升大语言模型(LLMs)与人类价值观的一致性

  • REALIGN:提升大语言模型(LLMs)与人类价值观的一致性
    AI
  • 来自上海交通大学、上海人工智能实验室、复旦大学、马里兰大学帕克分校等研究人员提出一种新方法REALIGN,旨在提升大语言模型(LLMs)与人类价值观的一致性。REALIGN的核心思想是通过改进现有指令数据的质量,而不是从头开始创建新的数据集。这种方法通过三个主要步骤来实现:定义标准、增强检索和重新格式化响应。REALI... 阅读全文

    优惠 多模态大语言模型AnyGPT:无论输入是文字、图片还是声音,AnyGPT都可以理解和生成相应的输出

  • 多模态大语言模型AnyGPT:无论输入是文字、图片还是声音,AnyGPT都可以理解和生成相应的输出
    AI
  • 来自复旦大学和上海AI实验室的研究人员推出多模态大语言模型AnyGPT,通过连接大语言模型与多模态适配器和扩散解码器,AnyGPT实现了对各种模态输入的理解和能够在任意模态中生成输出的能力。可以处理各种不同的信息形式,包括语音、文本、图像和音乐等。这意味着AnyGPT可以理解和生成不仅仅是文字,还包括其他形式的信息,使... 阅读全文

    优惠 开源平台CopilotKit:将AI机器人和AI驱动的文本框集成到ReactWeb应用中

  • 开源平台CopilotKit:将AI机器人和AI驱动的文本框集成到ReactWeb应用中
    GitHub
  • CopilotKit是一个开源平台,旨在将AI智能引入应用程序中的聊天机器人和文本编辑器,为日常工作和沟通带来革命性变化。该平台提供两个核心组件:CopilotPortal和CopilotTextarea。 CopilotPortal是一个应用内AI聊天机器人,能够“洞察”当前应用状态并在应用内执行操作。它不仅能够与应... 阅读全文

    优惠 新基准测试BABILong:评估自然语言处理(NLP)模型处理长文档和分布式事实的能力

  • 新基准测试BABILong:评估自然语言处理(NLP)模型处理长文档和分布式事实的能力
    AI
  • 新基准测试BABILong旨在评估自然语言处理(NLP)模型处理长文档和分布式事实的能力。BABILong通过在大量文本中“隐藏”问题和答案,模拟了在大量无关信息中寻找关键信息的场景,这对于模型来说是一个挑战。论文还介绍了一种名为Recurrent Memory Transformer(RMT)的模型,它通过增强循环记... 阅读全文

    优惠 RLVF:高效且精准地利用语言反馈,避免过度泛化

  • RLVF:高效且精准地利用语言反馈,避免过度泛化
    AI
  • 这篇论文介绍了一种名为C3PO(Contextualized Critiques with Constrained Preference Optimization)的新方法,它旨在解决如何让大语言模型(LLMs)根据用户的高级口头反馈进行调整,同时避免在不相关的场景中过度泛化这些反馈。C3PO的核心目标是让模型能够理解... 阅读全文

    优惠 开源Python库DataDreamer:帮助研究人员更容易地实现和复现涉及大语言模型(LLMs)的工作流程

  • 开源Python库DataDreamer:帮助研究人员更容易地实现和复现涉及大语言模型(LLMs)的工作流程
    AI
  • 来自宾夕法尼亚大学和多伦多大学的研究人员推出开源Python库DataDreamer,它旨在帮助研究人员更容易地实现和复现涉及大语言模型(LLMs)的工作流程。DataDreamer特别关注于合成数据生成、模型微调、指令调整和对齐等新兴工作流程,这些流程在自然语言处理(NLP)研究中越来越重要。 官网地址:https:... 阅读全文

    优惠 大模型评估工具LLM Comparator:帮助研究人员和工程师更有效地理解和评估大模型的性能

  • 大模型评估工具LLM Comparator:帮助研究人员和工程师更有效地理解和评估大模型的性能
    AI
  • 来自谷歌的研究人员推出大模型评估工具LLM Comparator,它是一个用于交互式分析大语言模型(LLMs)自动并排评估结果的可视化分析工具。这个工具旨在帮助研究人员和工程师更有效地理解和评估LLMs的性能,特别是在模型更新和调整后,如何与基线模型进行比较。 论文地址:https://arxiv.org/abs/24... 阅读全文

    优惠 新型内容推荐框架SPAR:通过分析用户过去的行为和喜好,来预测他们未来可能感兴趣的内容

  • 新型内容推荐框架SPAR:通过分析用户过去的行为和喜好,来预测他们未来可能感兴趣的内容
    AI
  • 来自哥伦比亚大学、Meta与MBZUAI的研究人员推出新型内容推荐框架SPAR(Sparse Poly-Attention for content Recommendation),这个框架的核心目标是利用用户的长期参与历史来提供个性化的内容推荐,比如新闻文章、社交媒体帖子或在线书籍等。简单来说,就是通过分析用户过去的行... 阅读全文