大语言模型
优惠 用于视觉指令调优(Visual Instruction Tuning)的数据集VISION-FLAN
10个月前 (02-21)AI
来自弗吉尼亚理工大学、华盛顿大学、密歇根大学、亚马逊、微软、Meta AI的研究人员推出用于视觉指令调优(Visual Instruction Tuning)的数据集VISION-FLAN。这个系统旨在提高视觉语言模型(VLMs)在理解和执行视觉任务方面的能力,特别是在处理多样化任务和遵循人类偏好方面。 论文地址:ht... 阅读全文
优惠 Stepwise ORMs (SORMs):改进大语言模型的推理能力,通过全局和局部的精炼来提升其在数学、科学或编程等任务上的表现
10个月前 (02-21)AI
来自Meta 、、乔治亚理工学院、StabilityAI的研究人员提出了一种名为“Stepwise ORMs (SORMs)”的方法,旨在提高大语言模型(LLMs)在解决数学、科学或编程问题时的推理能力这是一种在合成数据上训练的模型,用于更准确地预测最终答案的正确性,从而帮助LLMs在需要时进行自我修正。 论文地址:h... 阅读全文
优惠 Speculative Streaming:加速大语言模型的推理过程,而无需依赖辅助模型
10个月前 (02-21)AI
论文的主题是关于一种名为“Speculative Streaming”的方法,旨在加速大语言模型(LLMs)的推理过程,而无需依赖辅助模型。这种方法通过在目标模型内部融合起草(drafting)和验证(verification)过程,实现了对解码速度的显著提升。Speculative Streaming通过在单一模型内... 阅读全文
优惠 结合触觉、视觉和语言的多模态数据集TVL:用于训练和评估能够理解和生成触觉感受描述的模型
10个月前 (02-21)AI
加州大学伯克利分校、Meta AI和德累斯顿工业大学的研究人员推出一个关于创建一个结合触觉、视觉和语言的多模态数据集,用于训练和评估能够理解和生成触觉感受描述的模型。这个数据集名为Touch-Vision-Language (TVL),它包含了44,000对视觉-触觉观察数据,其中10%由人类标注,90%由GPT-4V... 阅读全文