大语言模型
优惠 新型大语言模型BitNet b1.58
标签:BitNet b1.58
AI
10个月前 (02-28)AI
这篇论文介绍了一种新型的大语言模型(LLM),称为BitNet b1.58。这种模型的核心特点是使用了1.58位的参数(或权重),这意味着每个参数只有三种可能的值:-1、0和1。这种设计不仅在保持模型性能的同时显著降低了计算成本,还在内存、延迟、吞吐量和能源消耗方面带来了显著的效益。 论文地址:https://arxi... 阅读全文
优惠 开发者打造苹果专属大模型运行工具Chat with MLX
标签:Chat with MLX
AI
10个月前 (02-28)AI
开发者受到英伟达Chat with RTX启发,专为苹果Silicon系列处理器的电脑打造了一款本地大模型运行工具Chat with MLX,此工具自动下载本地模型,并且可以同本地文件进行交互,支持多种语言,包括英语、西班牙语、中文和越南语。该项目的一个关键特点是易于集成,用户可以轻松集成任何HuggingFace和M... 阅读全文
优惠 大语言模型ChatMusician:不仅能够处理文本生成任务,还能够理解和生成音乐
标签:ChatMusician
AI
10个月前 (02-27)AI
香港科技大学的研究人员发布论文介绍了一个名为ChatMusician的新型大语言模型(LLM),它不仅能够处理文本生成任务,还能够理解和生成音乐。ChatMusician通过持续预训练和微调LLaMA2模型,使其能够处理与文本兼容的音乐表示——ABC记谱法,将音乐视为一种语言。这个模型能够在不依赖外部多模态神经结构或标... 阅读全文
优惠 新型视觉质量比较模型Co-Instruct:对多张图片进行开放性的质量比较,提供详细的推理过程,而不仅仅是给出一个简单的质量评分
10个月前 (02-27)AI
这篇论文介绍了一个名为Co-Instruct的新型视觉质量比较模型。这个模型的目标是能够对多张图片进行开放性的质量比较,提供详细的推理过程,而不仅仅是给出一个简单的质量评分。Co-Instruct模型通过比较设置(例如成对选择、列表排序)来评估图像质量,这种方法可以标准化不同观察者之间的评估标准,并提供更明确的响应。 ... 阅读全文
优惠 英伟达推出大型多语言语言模型Nemotron-4 15B
10个月前 (02-27)AI
英伟达发布论文介绍大型多语言语言模型Nemotron-4 15B,这个模型拥有150亿个参数,是在8万亿个文本标记上训练出来的。Nemotron-4 15B在英语、多语言和编程任务上表现出色,它在7个下游评估领域中的4个领域超过了所有现有的类似规模的开放模型,并在其余领域与领先的开放模型表现相当。特别是,Nemotro... 阅读全文
优惠 Rainbow Teaming:帮助研究人员和开发者更好地理解和改进大语言模型的鲁棒性
10个月前 (02-27)AI
Meta、伦敦大学学院、牛津大学的研究人员发布论文介绍了一个名为Rainbow Teaming的方法,它是为了生成多样化的对抗性提示(adversarial prompts),以此来测试和增强大语言模型(LLMs)的鲁棒性。对抗性提示是指那些旨在误导模型或利用其弱点的输入,可能导致模型产生不安全、有偏见或不正确的输出。... 阅读全文