AI

优惠 国产大模型全阵容!中国大语言模型竞技场Compass Arena全新上线

  • 国产大模型全阵容!中国大语言模型竞技场Compass Arena全新上线
    AI
  • LMSYS Org推出的大模型竞技场Chatbot Arena已成为海外知名的大模型榜单,但其中文化程度尚显不足。为了填补这一空白,上海人工智能实验室联合魔搭社区推出了中国大语言模型评测竞技场Compass Arena,首次集结了国内主流的大模型阵容,包括阿里通义千问、百度文心一言、腾讯混元等20款国产大模型,竞逐中国... 阅读全文

    优惠 simple-one-api:简化多平台大模型集成,开箱即用

  • simple-one-api:简化多平台大模型集成,开箱即用
    AI
  • 随着市场上免费的国产大模型增多,用户面临的一个问题是不同平台的API接口差异和繁琐的统计、流量、计费等问题。simple-one-api应运而生,旨在提供一个统一的解决方案。 项目目标 解决不同平台API的兼容性问题 去除统计和计费等复杂性 方便用户集成和调用多种大模型 主要特点 对接讯飞星火、百度千帆、腾讯混元等免费... 阅读全文

    优惠 快手开放自研文生图大模型“可图”

  • 快手开放自研文生图大模型“可图”
    AI
  • 快手正式对外发布了其自主研发的文生图大模型“可图”,支持用户进行AI创作图像以及AI形象定制。这是快手首次将其自研的大模型向公众开放。用户可通过“可图”微信小程序和网页版使用。这也是快手首次将其自研的系列大模型对外开放。报道援引知情人士消息称,“可图”大模型的参数规模达十亿级,这些数据来自开源社区、快手内部构建和自研 ... 阅读全文

    优惠 Mistral AI 推出全新编程大语言模型Codestral:220 亿参数,支持 Python 等 80 多种语言

  • Mistral AI 推出全新编程大语言模型Codestral:220 亿参数,支持 Python 等 80 多种语言
    AI
  • 法国人工智能初创公司 Mistral AI 今天发布了其首个专为编程设计的大语言模型(LLM)—— Codestral。尽管 Codestral 在某些基准测试中略低于其他模型,但它在上下文处理能力和多语言支持方面展现出了自己的优势。Mistral AI 的 Codestral 为编程领域带来了新的选择,虽然性能上的比... 阅读全文

    优惠 腾讯正式推出AI助手APP“腾讯元宝”:提供口语陪练特色应用

  • 腾讯正式推出AI助手APP“腾讯元宝”:提供口语陪练特色应用
    AI
  • 腾讯今日正式推出了基于混元大模型的全新AI助手App——“腾讯元宝”。这款应用集AI搜索、AI总结、AI写作等功能于一身,致力于为用户提供前所未有的智能体验。腾讯元宝的亮点在于其卓越的解析能力。无论是微信公众号链接、网址,还是PDF、Word、txt等格式文档,它都能一次性进行深度解析。超长的上下文窗口设计,让复杂信息... 阅读全文

    优惠 用于初始化大型深度学习模型!新型深度学习模型参数预测方法LOGAH

  • 用于初始化大型深度学习模型!新型深度学习模型参数预测方法LOGAH
    AI
  • 这篇论文的主题是关于一种新型的深度学习模型参数预测方法,称为LOGAH(Low-rank GrAph Hypernetworks),它用于初始化大型深度学习模型,特别是拥有数亿参数的Transformer模型,如视觉Transformer(ViT)和生成式预训练Transformer(GPT-2)。这种方法旨在帮助研究... 阅读全文

    优惠 大型多模态模型M3:设计灵感来源于俄罗斯套娃,它能够将视觉内容表示为嵌套的视觉标记

  • 大型多模态模型M3:设计灵感来源于俄罗斯套娃,它能够将视觉内容表示为嵌套的视觉标记
    AI
  • 威斯康星大学麦迪逊分校和微软的研究人员推出大型多模态模型M3(Matryoshka Multimodal Models)。这种模型的设计灵感来源于俄罗斯套娃(Matryoshka Dolls),它能够将视觉内容表示为嵌套的视觉标记(tokens),这些标记在不同的粗糙到精细的粒度级别上捕捉信息。例如,你正在开发一个自动... 阅读全文

    优惠 麻省理工学院推出新技术Trans-LoRA:一种用于大语言模型(LLMs)的参数高效微调(PEFT)方法

  • 麻省理工学院推出新技术Trans-LoRA:一种用于大语言模型(LLMs)的参数高效微调(PEFT)方法
    AI
  • 麻省理工学院推出新技术Trans-LoRA,它是一种用于大语言模型(LLMs)的参数高效微调(PEFT)方法。Trans-LoRA的核心目标是在不访问原始训练数据的情况下,实现低秩适配器(LoRA)模型在不同基础模型之间的无损转移。这项技术为大型模型的迁移和微调提供了一种高效、实用且几乎不需要数据的方法,极大地方便了模... 阅读全文

    优惠 Meta发布视觉语言模型介绍论文,全面介绍视觉语言模型

  • Meta发布视觉语言模型介绍论文,全面介绍视觉语言模型
    AI
  • 这篇论文的主题是介绍和探讨视觉-语言模型(Vision-Language Models,简称VLMs)。这类模型旨在将视觉信息(如图像)与语言信息(如文字描述)结合起来,以实现更丰富的人工智能应用。简单来说,VLMs就是教会计算机如何“看图说话”和“按文索骥”。 主要功能: 图像与文本的联合表示: VLMs能够理解图像... 阅读全文

    优惠 新框架Part123:能够从单视图图像中重建出具有结构意义的部分(part-aware)的3D模型

  • 新框架Part123:能够从单视图图像中重建出具有结构意义的部分(part-aware)的3D模型
    AI
  • 香港大学和清华大学的研究人员推出新框架Part123,它能够从单视图图像中重建出具有结构意义的部分(part-aware)的3D模型。Part123利用了扩散模型(diffusion models)生成多视图一致的图像,并结合了Segment Anything Model(SAM),这是一个强大的通用图像分割模型,能够... 阅读全文

    优惠 Zyphra推出新型混合模型Zamba:结合了SSM和Transformer的特点,提供与大型开放模型相媲美的性能,同时在参数成本上保持较低的水平

  • Zyphra推出新型混合模型Zamba:结合了SSM和Transformer的特点,提供与大型开放模型相媲美的性能,同时在参数成本上保持较低的水平
    AI
  • Zyphra推出新型人工智能语言模型Zamba,Zamba是一个7亿参数(7B SSM)的混合模型,它结合了SSM(State Space Model,状态空间模型)和Transformer的特点,旨在提供与大型开放模型相媲美的性能,同时在参数成本上保持较低的水平。论文还讨论了Zamba与其他模型的比较,以及它在不同基... 阅读全文

    优惠 如何让Transformer模型更好地执行数学运算,特别是大数字的加法

  • 如何让Transformer模型更好地执行数学运算,特别是大数字的加法
    AI
  • 马里兰大学、劳伦斯利弗莫尔国家实验室、蒂宾根埃利斯研究所、马克斯·普朗克智能系统研究所、图宾根人工智能中心和卡内基梅隆大学的研究人员发布论文,论文的主题是关于如何让一种名为“Transformer”的人工智能模型更好地执行数学运算,特别是大数字的加法。Transformer模型在处理语言和生成代码方面已经取得了很大进步... 阅读全文