大语言模型

优惠 新型二维状态空间模型Chimera:专门用于有效建模多变量时间序列数据

  • 新型二维状态空间模型Chimera:专门用于有效建模多变量时间序列数据
    AI
  • 康奈尔大学计算机科学系和纽约大学格罗斯曼医学院的研究人员推出新型二维状态空间模型Chimera,它专门用于有效建模多变量时间序列数据。这类数据广泛存在于医疗保健、金融市场、能源管理等领域。例如,你是一名医生,需要分析患者的心电图数据来诊断心脏状况。Chimera可以帮助你快速理解数据中的复杂模式和趋势,从而提供更准确的... 阅读全文

    优惠 新颖方法Turbo Sparse:能够在保持模型性能的同时,显著减少每次推理迭代中激活的参数数量

  • 新颖方法Turbo Sparse:能够在保持模型性能的同时,显著减少每次推理迭代中激活的参数数量
    AI
  • 上海交通大学并行与分布式系统研究所(IPADS)、清华大学计算机科学与技术系和上海人工智能实验室的研究人员推出新颖方法Turbo Sparse,能够在保持模型性能的同时,显著减少每次推理迭代中激活的参数数量。提高大型语言模型(LLMs)在推理(inference)过程中的效率,特别是针对那些参数量巨大的模型。通过使用T... 阅读全文

    优惠 PowerInfer-2:在智能手机上实现大语言模型的高速推理,特别是对于那些模型大小超出设备内存容量的情况

  • PowerInfer-2:在智能手机上实现大语言模型的高速推理,特别是对于那些模型大小超出设备内存容量的情况
    AI
  • 上海交通大学推出PowerInfer-2,它的主要目标是在智能手机上实现大语言模型(LLMs)的高速推理,特别是对于那些模型大小超出设备内存容量的情况。PowerInfer-2是第一个能够在智能手机上以每秒11.68个token的速度运行TurboSparse-Mixtral-47B模型的系统,这是一个具有47亿参数的... 阅读全文

    优惠 ICE:解决大语言模型在知识编辑场景中的脆弱性问题

  • ICE:解决大语言模型在知识编辑场景中的脆弱性问题
    AI
  • 通用人工智能国家重点实验室 BIGAI、北京大学推出新方法“Consistent In-Context Editing”(简称ICE),旨在解决大语言模型在知识编辑场景中的脆弱性问题。在这些场景中,模型需要在不进行大量重新训练的情况下,整合新信息。传统的微调方法在这种情况下往往会导致过拟合、性能下降和不自然的语言表达。... 阅读全文

    优惠 合作游戏和数据集“PyQTax”:解决大语言模型在处理表格问答(TableQA)任务时面临的挑战

  • 合作游戏和数据集“PyQTax”:解决大语言模型在处理表格问答(TableQA)任务时面临的挑战
    AI
  • 摩根大通人工智能研究推出一个名为“HiddenTables”的合作游戏和数据集“PyQTax”,旨在解决大语言模型(LLMs)在处理表格问答(TableQA)任务时面临的挑战,同时确保数据隐私和规模化应用。例如,有一个包含员工信息的数据表,Oracle知道这个表的结构,但Solver不知道具体内容。用户问:“出生于19... 阅读全文

    优惠 专注于东南亚语言的多语言多模态数据集中心和基准测试套件SEACrowd

  • 专注于东南亚语言的多语言多模态数据集中心和基准测试套件SEACrowd
    AI
  • 多语言多模态数据集中心和基准测试套件SEACrowd,它专注于东南亚语言。东南亚是一个语言和文化极其丰富多样的地区,拥有超过1300种本土语言和约6.71亿人口。然而,现有的人工智能(AI)模型在处理这些语言时面临着数据不足的问题,这限制了AI模型在东南亚语言上的表现。例如,一个研究者想要开发一个能够理解印尼语用户评论... 阅读全文

    优惠 新型基准测试VideoGUI:专门用于评估图形用户界面(GUI)自动化助手

  • 新型基准测试VideoGUI:专门用于评估图形用户界面(GUI)自动化助手
    AI
  • 新加坡国立大学和 微软的研究人员推出新型基准测试VideoGUI,它专门用于评估图形用户界面(GUI)自动化助手。GUI自动化是指让计算机程序自动执行图形界面中的操作,比如点击按钮、输入文字、拖拽对象等,这在很多领域都有广泛的应用前景,比如提高办公效率、简化网页浏览等。 项目主页:https://showlab.git... 阅读全文

    优惠 测试平台DCLM:通过控制数据集实验来改进语言模型

  • 测试平台DCLM:通过控制数据集实验来改进语言模型
    AI
  • 测试平台DCLM旨在通过控制数据集实验来改进语言模型。DCLM提供了一个标准化的语料库、有效的预训练配方以及一系列下游评估方法,让研究人员能够在不同的模型规模下测试不同的数据策划策略。例如,我们想要训练一个能够理解和生成人类语言的智能系统,比如一个能够回答问题或写文章的人工智能。为了做到这一点,我们需要给这个系统提供大... 阅读全文

    优惠 优化方法MDPO:专门为大语言模型设计的,目的是让这些模型更好地理解和响应人类的偏好

  • 优化方法MDPO:专门为大语言模型设计的,目的是让这些模型更好地理解和响应人类的偏好
    AI
  • 南加州大学、加州大学戴维斯分校和微软研究院的研究人员推出一种新的优化方法MDPO(Multimodal Direct Preference Optimization,多模态直接偏好优化)。这种方法是专门为大语言模型(LLMs)设计的,目的是让这些模型更好地理解和响应人类的偏好。通过这种方式,MDPO使得大型语言模型在处... 阅读全文

    优惠 基准测试生成引擎Task Me Anything:为了评估大型多模态语言模型而设计

  • 基准测试生成引擎Task Me Anything:为了评估大型多模态语言模型而设计
    AI
  • 这篇论文介绍了一个名为“Task Me Anything”(简称TASK-ME-ANYTHING)的基准测试生成引擎,它是为了评估大型多模态语言模型(MLMs)而设计的。这些模型能够处理包括图像、视频、文本等在内的多种类型的数据,但在实际应用中,开发者往往难以选择最适合其特定需求的模型。为了解决这个问题,TASK-ME... 阅读全文

    优惠 对开放性的语言模型进行深入的实验分析:评估它们在不同类型的任务、应用领域和推理类型中的表现

  • 对开放性的语言模型进行深入的实验分析:评估它们在不同类型的任务、应用领域和推理类型中的表现
    AI
  • 佐治亚理工学院、斯坦福大学和亚马逊的研究人员发布论文,论文的主题是对开放性的语言模型(Open Language Models,简称LMs)进行深入的实验分析,以评估它们在不同类型的任务、应用领域和推理类型中的表现。简单来说,就像我们上学时参加不同科目的考试一样,这篇论文就是给这些语言模型出了一系列不同难度和类型的题目... 阅读全文

    优惠 最大、最多样化的开源多模态交错数据集MINT-1T

  • 最大、最多样化的开源多模态交错数据集MINT-1T
    AI
  • 华盛顿大学、Salesforce Research、斯坦福大学、德克萨斯大学奥斯汀分校、 加州大学伯克利分校的研究人员推出大规模多模态数据集MINT-1T,它是目前最大、最多样化的开源多模态交错数据集。MINT-1T的出现是为了解决目前开源大型多模态模型(LMMs)训练数据不足的问题,这些模型需要大量的图像和文本交错序... 阅读全文