Magic AI 推出第一个支持一亿上下文的语言模型 LTM-2-mini,相当于约 1000 万行代码或 750 本小说的规模

| 分类: AI情报 | 热度: 98 ℃

随着人工智能技术的不断发展,AI 在各个领域的应用也越来越广泛。近日,AI 公司 Magic AI 推出了一款名为 LTM-2-mini 的新型语言模型,该模型具有处理高达 1 亿个 Token 上下文的能力,相当于约 1000 万行代码或 750 本小说的规模。这标志着 AI 技术的一个巨大飞跃,有望彻底改变我们对 AI 模型的认知和应用方式。

  • 官方介绍:https://magic.dev/blog/100m-token-context-windows

一、突破性的长上下文处理能力

在 Magic AI 推出 LTM-2-mini 之前,大多数语言模型都集中在训练阶段,并且在推理过程中只能处理相对较短的上下文。但是,LTM-2-mini 的出现打破了这一限制,它能够处理的上下文长度远远超过了现有的技术水平。这意味着开发者可以利用这一模型来处理更为复杂的任务,特别是在软件开发领域。

二、评估标准的新里程碑 —— HashHop

为了准确评估 LTM-2-mini 在长上下文中的表现,Magic AI 还开发了一套全新的评估标准 HashHop。与传统的评估方法相比,HashHop 通过使用随机且不可压缩的哈希值来进行训练,并要求模型在给定上下文中存储和检索最大信息内容。这种方法避免了传统方法中的弱点,并且能够测试模型在潜在空间中进行多点访问的能力。

三、高效且强大的计算基础

LTM-2-mini 不仅在处理能力上有所突破,其算法效率也令人印象深刻。与 Llama 3.1 405B 相比,LTM-2-mini 在处理相同规模数据时,效率高出约 1000 倍,并且所需的内存资源也大幅减少。Magic AI 正在与 Google Cloud 和 Nvidia 合作开发更大规模的 LTM-2 模型,并计划使用 Nvidia Blackwell GB200 NLV72 芯片构建新的超级计算机,进一步提升训练和推理效率。

四、雄厚的资金支持

Magic AI 最近获得了来自 Eric Schmidt、Jane Street 和 Sequoia 等知名投资者的 3.2 亿美元融资,使得公司的总资金达到了 4.65 亿美元。这笔资金将被用于持续的技术研发和市场拓展,推动 Magic AI 在 AI 行业中的领先地位。

声明: 猎游人 每天为你带来最新的游戏和硬件打折情报,帮你精心挑选值得玩的游戏,让您的钱花的更值!本站信息大部分来自于网友爆料,如果您发现了优质的游戏或好的价格,不妨爆料给我们吧(谢绝任何商业爆料)!

0条评论

Hi,您需要填写昵称和邮箱!
姓名 (必填)
邮箱 (必填)
网站

暂时木有评论