开发者打造苹果专属大模型运行工具Chat with MLX

分类:大语言模型 | 热度:220 ℃

开发者受到英伟达Chat with RTX启发,专为苹果Silicon系列处理器的电脑打造了一款本地大模型运行工具Chat with MLX,此工具自动下载本地模型,并且可以同本地文件进行交互,支持多种语言,包括英语、西班牙语、中文和越南语。该项目的一个关键特点是易于集成,用户可以轻松集成任何HuggingFace和MLX兼容的开源模型。

目前支持的模型:

  • Google Gemma-7b-it, Gemma-2b-it
  • Mistral-7B-Instruct, OpenHermes-2.5-Mistral-7B, NousHermes-2-Mistral-7B-DPO
  • Mixtral-8x7B-Instruct-v0.1, Nous-Hermes-2-Mixtral-8x7B-DPO
  • Quyen-SE (0.5B), Quyen (4B)
  • StableLM 2 Zephyr (1.6B)
  • Vistral-7B-Chat, VBD-Llama2-7b-chat, vinallama-7b-chat

MLX是什么?

苹果的MLX是一种开源的人工智能工具,专为在其硬件上训练和运行大型语言模型而设计。该框架是苹果公司为了推动人工智能研究而发布的一系列工具之一,旨在为用户提供更好的硬件支持,并简化机器学习模型的培训和部署过程。

MLX框架的特点包括:

  1. 统一的内存模型:MLX中的阵列位于共享内存中,操作可以在任何支持的设备类型上执行,而无需执行数据复制。这有助于提高数据移动速度和训练效率。
  2. 可组合函数转换:MLX具有用于自动微分、自动矢量化和计算图优化的可组合函数变换,这有助于简化模型的开发和优化过程。
  3. 惰性计算:MLX中的计算是惰性的,只有在需要时才具体化数组,这有助于节省计算资源和提高计算效率。
  4. 动态图构建:MLX中的计算图是动态构建的,可以根据需要更改函数的形状,而无需触发缓慢的编译过程,从而使调试更容易、更直观。

此外,MLX框架提供了Python API和C++ API,以及更高级别的包,以支持不同类型的模型开发和部署。该框架还针对苹果的Silicon处理器架构进行了优化,可充分利用苹果硬件的性能优势。

开发者打造苹果专属大模型运行工具Chat with MLX

声明: 猎游人 每天为你带来最新的游戏和硬件打折情报,帮你精心挑选值得玩的游戏,让您的钱花的更值!本站信息大部分来自于网友爆料,如果您发现了优质的游戏或好的价格,不妨爆料给我们吧(谢绝任何商业爆料)! 点此爆料

0条评论

Hi,您需要填写昵称和邮箱!
姓名 (必填)
邮箱 (必填)
网站

暂时木有评论