Meta 发布 Llama 3.2 模型:从 1B 纯文本到 90B 多模态

| 分类: AI情报 | 热度: 52 ℃

昨日(9月25日),Meta 公司在其官方博客上发布了 Llama 3.2 AI 模型。这款新模型以其开放性和可定制性为特点,旨在满足开发者在边缘人工智能和视觉处理领域的多样化需求。

技术亮点

Llama 3.2 结合了多模态视觉能力和轻量化设计,代表了 Meta 在大型语言模型(LLMs)上的最新突破。相比以往版本,它提供了更为强大的功能和广泛的适用性,适用于多种应用场景。

Meta 发布 Llama 3.2 模型:从 1B 纯文本到 90B 多模态

模型概览

  • Llama 3.2 90B Vision(文本+图像输入)
    • Meta 的旗舰模型,适用于企业级应用。
    • 擅长常识推理、长文本生成、多语言翻译等任务。
    • 引入图像推理功能,支持图像理解和视觉推理。
  • Llama 3.2 11B Vision(文本+图像输入)
    • 适用于内容创作、对话AI及需要视觉推理的企业应用。
    • 在文本摘要、情感分析等方面表现优异,同样支持图像推理。
  • Llama 3.2 3B(文本输入)
    • 设计用于低延迟推理和有限计算资源的应用场景。
    • 擅长文本摘要、分类和语言翻译。
  • Llama 3.2 1B(文本输入)
    • 最轻量级模型,适用于边缘设备和移动应用中的检索和摘要任务。
    • 支持个人信息管理和多语言知识检索。

创新特性

所有模型均支持长达 128K 标记的上下文长度,特别适合在边缘设备上运行摘要、指令跟踪等任务。Llama 3.2 的 1B 和 3B 模型从一开始便兼容高通和联发科硬件,并针对 Arm 处理器优化。

与同类开源多模态模型相比,Llama 3.2 的预训练模型和对齐模型均可通过 tochtune 微调,使用 torchchat 实现本地部署。此外,Meta AI 提供的智能助手也方便了模型的试验。

生态系统支持

Meta 同时宣布将推出首批 Llama Stack 官方发行版,简化开发者在不同环境中使用 Llama 模型的流程,支持检索增强生成(RAG)和工具支持型应用的一键部署,并集成安全性保障。

Meta 正与 AWS、Databricks、Dell Technologies 等合作伙伴紧密合作,为下游企业客户提供 Llama Stack 发行版。设备分发通过 PyTorch ExecuTorch,单节点分发则通过 Ollama。

声明: 猎游人 每天为你带来最新的游戏和硬件打折情报,帮你精心挑选值得玩的游戏,让您的钱花的更值!本站信息大部分来自于网友爆料,如果您发现了优质的游戏或好的价格,不妨爆料给我们吧(谢绝任何商业爆料)!

0条评论

Hi,您需要填写昵称和邮箱!
姓名 (必填)
邮箱 (必填)
网站

暂时木有评论