大语言模型
优惠 谷歌推出新型注意力机制Infini-attention:可以使基于Transformer的大语言模型高效地处理无限长的输入序列,同时保持内存和计算资源的有限性
10个月前 (04-11)AI
谷歌推出新型注意力机制Infini-attention,它可以使基于Transformer的大语言模型(LLMs)高效地处理无限长的输入序列,同时保持内存和计算资源的有限性。例如,就像有一个超级大脑,它可以阅读和记住一本无限长的书,并且能够快速准确地回忆起书中的任何信息,不管这些信息在书的哪个位置。 主要功能和特点: ... 阅读全文
优惠 浦语·灵笔2系列新模型InternLM-XComposer2-4KHD:在处理图像和文本方面有着显著的进步
10个月前 (04-10)AI
上海人工智能实验室推出浦语·灵笔2系列新模型InternLM-XComposer2-4KHD,这是一款开创性大型视觉-语言模型(LVLM),这个模型在处理图像和文本方面有着显著的进步。例如,你有一个能够理解图片内容并回答有关图片问题的智能助手,这就是这个模型的基本功能。InternLM-XComposer2-4KHD是... 阅读全文
优惠 SambaLingo:针对大语言模型进行多语言适应性调整的研究项目
10个月前 (04-10)AI
这篇论文的主题是“SambaLingo”,这是一个针对大型语言模型(LLMs)进行多语言适应性调整的研究项目。简单来说,SambaLingo的目标是让大型语言模型能够理解和生成更多不同语言的文本,弥补目前LLMs在多种语言能力上的差距。例如,如果我们要为一个以英语为中心的模型添加对阿拉伯语的支持,SambaLingo的... 阅读全文