继英伟达发布Chat with RTX后!AMD联合LM Studio推出专属AMD ROCm技术的LM Studio版本,用户现在可以在其平台上本地化运行开源大语言模型(LLM),并构建专属的AI聊天机器人。这一功能支持具有XDNA NPU的Ryzen 7000/8000系列处理器以及内置AI加速核心的Radeon RX 7000系列GPU设备,用户需下载对应版本的LM Studio以使用。
AMD表示,人工智能助手已成为提升生产力、效率以及激发创新思维的重要工具。用户设备上的本地AI聊天机器人不仅摆脱了互联网连接的束缚,而且所有对话内容都能保留在本地系统上,提高了数据安全性。
在AMD的博客文章中,详细列出了运行本地GPT大语言模型的步骤,并提供了具体用例说明。例如,若想运行Mistral 7b模型,用户可以在相应平台搜索“TheBloke/OpenHermes-2.5-Mistral-7B-GGUF”并按照指示操作;同样,如果想运行LLAMA v2 7b模型,则可以搜索“TheBloke/Llama-2-7B-Chat-GGUF”并选择相应的结果。
对于已经拥有支持AMD技术的CPU或GPU设备的用户,如果对构建专属AI聊天机器人感兴趣,可以查阅原文了解更多详情,并按照说明进行操作。这一功能的推出无疑为AMD用户带来了更多个性化的AI体验,同时也展示了AMD在AI领域的技术实力。
0条评论