大语言模型

优惠 Firecrawl:一键转换网站为Markdown格式的API服务

  • Firecrawl:一键转换网站为Markdown格式的API服务
    AI
  • Firecrawl是一款专注于将网站内容转化为易于大语言模型处理的Markdown格式的API服务。它旨在简化网络数据抓取与整理流程,为用户提供一键式的网页内容提取解决方案。以下是Firecrawl的核心功能与使用特点: 一、核心功能 网站自动爬取与转化 URL输入:用户仅需提供目标网站的单一入口URL,无需其他复杂的... 阅读全文

    优惠 专为简化RAG代码库管理与部署而设计的开源框架Cognita

  • 专为简化RAG代码库管理与部署而设计的开源框架Cognita
    AI
  • Cognita是一款专为简化RAG(Retrieval-Augmented Generation)代码库管理与部署而设计的开源框架。它以用户友好的前端界面为核心,赋予用户便捷的RAG定制与实验功能,确保所构建的系统具备出色的可部署性。无论是本地测试还是大规模生产环境应用,Cognita都能无缝衔接,为RAG系统的高效运... 阅读全文

    优惠 Purple Llama:完备的工具集与评估体系,助力社区成员在开发过程中负责任地运用开放的生成式AI模型

  • Purple Llama:完备的工具集与评估体系,助力社区成员在开发过程中负责任地运用开放的生成式AI模型
    AI
  • Purple Llama,一个前瞻性的综合性项目,正逐步构建起一套完备的工具集与评估体系,助力社区成员在开发过程中负责任地运用开放的生成式AI模型。该项目以持续集成的方式,汇聚多元化的解决方案,以适应AI技术发展的步伐与挑战。 首个版本,聚焦网络防护 我们的首发版本,已锁定网络安全与输入/输出保护两大核心领域,为用户配... 阅读全文

    优惠 torchtune:为 PyTorch 用户设计的库,旨在简化大型语言模型(LLMs)的创作、微调和实验过程

  • torchtune:为 PyTorch 用户设计的库,旨在简化大型语言模型(LLMs)的创作、微调和实验过程
    AI
  • torchtune 是一个为 PyTorch 用户设计的库,旨在简化大型语言模型(LLMs)的创作、微调和实验过程。以下是关于 torchtune 的一些关键信息: 原生 PyTorch 实现:torchtune 提供了使用可组合和模块化构建块的流行大型语言模型的原生 PyTorch 实现。 支持 Meta Llama... 阅读全文

    优惠 gemma.cpp:一个轻量级的、独立的 C++ 推理引擎,专为 Google 的 Gemma 基础模型设计

  • gemma.cpp:一个轻量级的、独立的 C++ 推理引擎,专为 Google 的 Gemma 基础模型设计
    AI
  • gemma.cpp 是一个轻量级的、独立的 C++ 推理引擎,专为 Google 的 Gemma 基础模型设计。这个项目似乎是为了填补现代大型语言模型(LLM)推理引擎和实验性 C++ 推理运行时之间的空白。它旨在为研究人员和开发者提供一个简单、直观且易于嵌入其他项目的工具,以便进行实验和研究。 以下是关于 gemma... 阅读全文

    优惠 Reka推出多模态语言模型Reka Core

  • Reka推出多模态语言模型Reka Core
    AI
  • 由 Reka 团队开发的一系列强大的多模态语言模型:Reka Core、Reka Flash 和 Reka Edge。这些模型能够处理和推理文本、图像、视频和音频输入。报告详细讨论了这些模型的训练细节,并提供了全面的评估结果。Reka 模型的特点是,即使是较小的模型(如 Reka Edge 和 Reka Flash),... 阅读全文

    优惠 新型基准测试Blink:专门用于评估多模态大语言模型在核心视觉感知能力方面的表现

  • 新型基准测试Blink:专门用于评估多模态大语言模型在核心视觉感知能力方面的表现
    AI
  • 新型基准测试Blink,它专门用于评估多模态大型语言模型(LLMs)在核心视觉感知能力方面的表现。这些能力往往在其他评估中被忽视,但对于人类来说却是非常直观和本能的,例如相对深度估计、视觉对应、法医检测和多视图推理等任务。Blink基准测试包含14个经典计算机视觉任务,这些任务被重新构想为3,807个多项选择题,配以单... 阅读全文

    优惠 SurgeGlobal推出OpenBezoar模型:在多种指令数据上进行训练得到的,目的是为了提高预训练大语言模型在多种下游任务上的性能

  • SurgeGlobal推出OpenBezoar模型:在多种指令数据上进行训练得到的,目的是为了提高预训练大语言模型在多种下游任务上的性能
    AI
  • 这篇论文介绍了一个名为OpenBezoar的模型家族,这些模型是通过在多种指令数据上进行训练得到的,目的是为了提高预训练大语言模型(LLMs)在多种下游任务上的性能。这个过程就像是教一个机器人如何更好地理解人类的指令并做出合适的反应。OpenBezoar模型家族的特点是它们相对较小,但在性能上却能与更大的模型相媲美,甚... 阅读全文

    优惠 TriForce:为了提高大语言模型(LLMs)在生成长文本内容时的效率而设计

  • TriForce:为了提高大语言模型(LLMs)在生成长文本内容时的效率而设计
    AI
  • 卡内基梅隆大学和Meta的研究人员推出TriForce,它是为了提高大语言模型(LLMs)在生成长文本内容时的效率而设计的。大语言模型,比如我们熟知的GPT-4,已经在聊天机器人、视觉生成和金融分析等领域得到了广泛应用。但是,这些模型在生成长文本时面临着一些挑战,主要是因为它们需要存储大量的中间信息(称为键值(KV)缓... 阅读全文

    优惠 MLCommons AI安全工作组推出AI安全基准测试(AI Safety Benchmark)v0.5版本

  • MLCommons AI安全工作组推出AI安全基准测试(AI Safety Benchmark)v0.5版本
    AI
  • 由MLCommons AI安全工作组(AI Safety Working Group)开发的AI安全基准测试(AI Safety Benchmark)的v0.5版本。这个基准测试的目标是评估使用聊天调优语言模型(chat-tuned language models)的AI系统的安全风险。v0.5版本的基准测试不应该用来... 阅读全文

    优惠 新框架ALPHALLM:帮助大语言模型通过自我评估和学习来提高其在复杂推理和规划任务上的表现,而不需要额外的人工标注数据

  • 新框架ALPHALLM:帮助大语言模型通过自我评估和学习来提高其在复杂推理和规划任务上的表现,而不需要额外的人工标注数据
    AI
  • 腾讯AI实验室发布新框架ALPHALLM,它可以帮助大语言模型通过自我评估和学习来提高其在复杂推理和规划任务上的表现,而不需要额外的人工标注数据。 主要功能和特点: 自我改进:ALPHALLM使语言模型能够自我评估,找出回答中的不足,并据此改进。 集成蒙特卡洛树搜索(MCTS):借鉴了AlphaGo的成功经验,ALPH... 阅读全文

    优惠 Cross-lingual Reward Model Transfer:用于自然语言处理(NLP)中的零样本(Zero-Shot)跨语言对齐技术

  • Cross-lingual Reward Model Transfer:用于自然语言处理(NLP)中的零样本(Zero-Shot)跨语言对齐技术
    AI
  • 来自MIT和谷歌的研究人员发布论文介绍了“跨语言奖励模型迁移(Cross-lingual Reward Model Transfer)”,这是一种用于自然语言处理(NLP)中的零样本(Zero-Shot)跨语言对齐技术。简单来说,这项技术可以让一个已经在某种语言(源语言)上训练好的奖励模型(Reward Model,简... 阅读全文