大语言模型

优惠 CodecLM:用于生成与特定指令分布和大语言模型对齐的高质量合成数据的通用框架

  • CodecLM:用于生成与特定指令分布和大语言模型对齐的高质量合成数据的通用框架
    AI
  • 谷歌云和搜索团队推出CodecLM,它是一个用于生成与特定指令分布和大语言模型(LLMs)对齐的高质量合成数据的通用框架。简单来说,CodecLM就像是一个智能的数据制造工厂,能够根据需要生产出适合训练语言模型的数据。例如,如果我们想要训练一个语言模型来更好地回答关于健康和营养的问题,CodecLM可以生成一系列与健康... 阅读全文

    优惠 大语言模型在处理表格数据时的记忆力和学习能力

  • 大语言模型在处理表格数据时的记忆力和学习能力
    AI
  • 图宾根大学图宾根人工智能中心和微软搜索团队发布论文探讨大语言模型(Large Language Models,简称LLMs)在处理表格数据时的记忆力和学习能力。用通俗的语言来说,就像是研究一个学习了很多知识的智能助手,当它遇到新的或之前学过的问题时,它是如何回忆和应用这些知识的。 主要功能和特点: 记忆力测试: 研究者... 阅读全文

    优惠 多模态模型OmniFusion:结合了大语言模型和视觉模态的适配器,以提高人工智能系统处理和理解文本和图像数据的能力

  • 多模态模型OmniFusion:结合了大语言模型和视觉模态的适配器,以提高人工智能系统处理和理解文本和图像数据的能力
    AI
  • 这篇论文介绍了一个名为OmniFusion的多模态模型,它结合了大型语言模型(LLM)和视觉模态的适配器,以提高人工智能系统处理和理解文本和图像数据的能力。OmniFusion模型在多个视觉-语言基准测试中表现出色,尤其是在视觉问题回答(VQA)任务上,与现有的开源解决方案相比,它能够提供更详细的答案。 GitHub:... 阅读全文

    优惠 MiniCPM: 揭示端侧大语言模型的无限潜力

  • MiniCPM: 揭示端侧大语言模型的无限潜力
    AI
  • 面壁智能与清华大学自然语言处理实验室共同开源的系列端侧大模型MiniCPM,旨在探索在资源有限的情况下,如何有效地训练和部署语言模型。MiniCPM系列包括两个主要模型,分别是拥有1.2亿和2.4亿非嵌入参数的变体。尽管模型规模较小,但它们在各种任务上的表现与大型语言模型(LLMs)相当,甚至在某些情况下能与参数量达到... 阅读全文

    优惠 RWKV推出两个新型的序列模型——Eagle(RWKV-5)和Finch(RWKV-6)

  • RWKV推出两个新型的序列模型——Eagle(RWKV-5)和Finch(RWKV-6)
    AI
  • RWKV推出两个新型的序列模型——Eagle(RWKV-5)和Finch(RWKV-6),它们是在之前RWKV-4模型的基础上进行改进的。这些模型的目标是提高自然语言处理(NLP)任务的效率,同时保持或提升模型的性能。RWKV的架构设计进步体现在多头矩阵值状态和动态递归机制上,这些改进在保持RNN推理效率的同时,也增强... 阅读全文

    优惠 自适应密度控制(ADC)在3D高斯溅射(3DGS)方法中的局限性

  • 自适应密度控制(ADC)在3D高斯溅射(3DGS)方法中的局限性
    AI
  • Meta发布论文深入探讨了自适应密度控制(ADC)在3D高斯溅射(3DGS)方法中的局限性。3DGS是一种场景表示方法,能够生成高质量、逼真的新颖视图合成结果。ADC被引入用于自动管理3D点基本元素,包括控制加密和修剪操作,但在加密逻辑方面存在某些不足。我们的主要贡献在于,为3DGS提出了一种更加基于原则、以像素误差为... 阅读全文

    优惠 Mistral推出开源大模型Mixtral 8x22b

  • Mistral推出开源大模型Mixtral 8x22b
    AI
  • 在谷歌和OpenAI接连放大招后,Mistral也不甘寂寞,直接释出了开源大模型Mixtral 8x22b,此模型 281.24 GB大小,需要4 张英伟达 A100 或H100显卡,才可以安全高效地运行模型。(PS:Mistral又是直接放磁力链接让大家下载) 磁力链接: magnet:?xt=urn:btih:92... 阅读全文

    优惠 OpenAI推出GPT-4-Turbo 正式版:视觉能力,并支持高达128k的上下文

  • OpenAI推出GPT-4-Turbo 正式版:视觉能力,并支持高达128k的上下文
    AI
  • OpenAI发布了备受期待的GPT-4-Turbo正式版,该版本已在ChatGPT中正式提供,并同时集成到OpenAI API中。GPT-4-Turbo具有视觉能力,并支持高达128k的上下文,为用户提供了更丰富的交互体验。 主要更新亮点: 全面开放:用户现在可以通过“gpt-4-turbo”来使用此模型,最新版本为“... 阅读全文

    优惠 谷歌在180多个国家/地区推出Gemini 1.5 Pro API:具有原生音频理解、系统指令、JSON 模式等新功能

  • 谷歌在180多个国家/地区推出Gemini 1.5 Pro API:具有原生音频理解、系统指令、JSON 模式等新功能
    AI
  • 谷歌在今天宣布将在180多个国家/地区推出Gemini 1.5 Pro 的API,首次提供原生音频(语音)理解能力以及全新的File API,使得文件处理更加便捷。此外,还推出了系统指令和JSON模式等新功能,赋予开发者对模型输出的更多控制权。最后,谷歌发布了性能卓越的下一代文本嵌入模型,超越了同类产品的表现。 以下是... 阅读全文

    优惠 多模态语义分割网络Sigma:有效地结合多种传感器数据,提高了AI系统对复杂环境的理解和适应能力

  • 多模态语义分割网络Sigma:有效地结合多种传感器数据,提高了AI系统对复杂环境的理解和适应能力
    AI
  • 美国卡内基梅隆大学机器人研究所和中国大连理工大学未来技术学院的研究人员推出新型网络Sigma,它是一种用于多模态语义分割的网络。Sigma是一种先进的多模态语义分割网络,它通过有效地结合多种传感器数据,提高了AI系统对复杂环境的理解和适应能力。例如,你有一个机器人,它可以通过摄像头看到世界(这就是RGB图像),但它还能... 阅读全文

    优惠 用于训练大语言模型的方法“直接纳什优化(Direct Nash Optimization, DNO)”:让模型通过自我改进来更好地符合人类的偏好和价值观

  • 用于训练大语言模型的方法“直接纳什优化(Direct Nash Optimization, DNO)”:让模型通过自我改进来更好地符合人类的偏好和价值观
    AI
  • 微软搜索团队推出“直接纳什优化(Direct Nash Optimization, DNO)”,这是一种用于训练大型语言模型(LLMs)的方法,目的是让模型通过自我改进来更好地符合人类的偏好和价值观。想象一下,就像有一个智能助手,它可以通过学习我们喜欢什么样的回答和不喜欢什么样的回答,然后不断地调整自己,以提供更符合我... 阅读全文

    优惠 Stream of Search (SoS):大语言模型如何在解决问题时进行搜索和推理

  • Stream of Search (SoS):大语言模型如何在解决问题时进行搜索和推理
    AI
  • 斯坦福大学的研究人员推出Stream of Search (SoS),它教会语言模型如何在解决问题时进行搜索和推理。通常,大语言模型在训练时只接触到正确的解决方案,而不会看到错误或者寻找解决方案的过程。这就像是只学习到了如何走到目的地,而没有学习如何在路上迷路和找回方向。SoS方法通过将搜索过程表示为一系列的文本信息(... 阅读全文