随着人工智能技术的不断发展,AI 在各个领域的应用也越来越广泛。近日,AI 公司 Magic AI 推出了一款名为 LTM-2-mini 的新型语言模型,该模型具有处理高达 1 亿个 Token 上下文的能力,相当于约 1000 万行代码或 750 本小说的规模。这标志着 AI 技术的一个巨大飞跃,有望彻底改变我们对 AI 模型的认知和应用方式。
- 官方介绍:https://magic.dev/blog/100m-token-context-windows
一、突破性的长上下文处理能力
在 Magic AI 推出 LTM-2-mini 之前,大多数语言模型都集中在训练阶段,并且在推理过程中只能处理相对较短的上下文。但是,LTM-2-mini 的出现打破了这一限制,它能够处理的上下文长度远远超过了现有的技术水平。这意味着开发者可以利用这一模型来处理更为复杂的任务,特别是在软件开发领域。
二、评估标准的新里程碑 —— HashHop
为了准确评估 LTM-2-mini 在长上下文中的表现,Magic AI 还开发了一套全新的评估标准 HashHop。与传统的评估方法相比,HashHop 通过使用随机且不可压缩的哈希值来进行训练,并要求模型在给定上下文中存储和检索最大信息内容。这种方法避免了传统方法中的弱点,并且能够测试模型在潜在空间中进行多点访问的能力。
三、高效且强大的计算基础
LTM-2-mini 不仅在处理能力上有所突破,其算法效率也令人印象深刻。与 Llama 3.1 405B 相比,LTM-2-mini 在处理相同规模数据时,效率高出约 1000 倍,并且所需的内存资源也大幅减少。Magic AI 正在与 Google Cloud 和 Nvidia 合作开发更大规模的 LTM-2 模型,并计划使用 Nvidia Blackwell GB200 NLV72 芯片构建新的超级计算机,进一步提升训练和推理效率。
四、雄厚的资金支持
Magic AI 最近获得了来自 Eric Schmidt、Jane Street 和 Sequoia 等知名投资者的 3.2 亿美元融资,使得公司的总资金达到了 4.65 亿美元。这笔资金将被用于持续的技术研发和市场拓展,推动 Magic AI 在 AI 行业中的领先地位。
0条评论