大语言模型

优惠 开源框架SkyPilot:简化云环境中机器学习和数据科学批量作业的运行,适用于多云和单云用户

  • 开源框架SkyPilot:简化云环境中机器学习和数据科学批量作业的运行,适用于多云和单云用户
    AI
  • SkyPilot 是一个开源框架,由加州大学伯克利分校的 Sky Computing 实验室研发。它旨在简化云环境中机器学习和数据科学批量作业的运行,适用于多云和单云用户。SkyPilot 的目标是降低云使用门槛、控制运行成本,并且全程无需任何云基础设施专业知识。 主要功能和特点 自动化资源选择:SkyPilot 能够... 阅读全文

    优惠 智能助手新框架AGENTGYM:帮助开发能够处理多样化任务和在不同环境中自我进化的通用型大语言模型(LLM)代理

  • 智能助手新框架AGENTGYM:帮助开发能够处理多样化任务和在不同环境中自我进化的通用型大语言模型(LLM)代理
    AI
  • 复旦自然语言处理实验室 & 复旦视觉与学习实验室推出新框架AGENTGYM,它旨在帮助开发能够处理多样化任务和在不同环境中自我进化的通用型大语言模型(LLM)代理。这种类型的代理是人工智能领域的长期目标,因为它们具有广泛的应用潜力,并能够展示出类似人类的学习和适应能力。 项目主页:https://agentgy... 阅读全文

    优惠 开放式AI系统的重要性,特别是在实现人工超人类智能方面

  • 开放式AI系统的重要性,特别是在实现人工超人类智能方面
    AI
  • 这篇论文的主题是关于“开放式(Open-Endedness)”人工智能(AI)系统的重要性,特别是在实现人工超人类智能(Artificial Superhuman Intelligence, ASI)方面。开放式AI系统是指那些能够不断自我改进、发现新知识,并创造出对人类观察者来说既新颖又可学习的成果的系统。论文还讨论... 阅读全文

    优惠 思维缓冲区Buffer of Thoughts:用于增强大语言模型(LLMs)推理能力的方法

  • 思维缓冲区Buffer of Thoughts:用于增强大语言模型(LLMs)推理能力的方法
    AI
  • 北京大学、加州大学伯克利分校和斯坦福大学的研究人员推出名为“Buffer of Thoughts”(BoT,即“思维缓冲区”)的新技术,它是一种用于增强大语言模型(LLMs)推理能力的方法。这项技术的核心思想是通过存储一系列高级的“思维模板”(thought-template),来提高模型在处理各种任务时的准确性、效率... 阅读全文

    优惠 ThunderKittens框架:极大地简化了在 CUDA(未来还将支持 ROCm 等)中编写快速深度学习核心的过程

  • ThunderKittens框架:极大地简化了在 CUDA(未来还将支持 ROCm 等)中编写快速深度学习核心的过程
    AI
  • 在深度学习的世界里,核心算法的速度和效率至关重要。ThunderKittens 是一个框架,它极大地简化了在 CUDA(未来还将支持 ROCm 等)中编写快速深度学习核心的过程。现在,ThunderKittens 框架的出现,让这一切变得更加容易实现。 核心原则 简单性:ThunderKittens 的编写方式极为直观... 阅读全文

    优惠 DuckDuckGo推出匿名访问的 AI 聊天服务 AI Chat

  • DuckDuckGo推出匿名访问的 AI 聊天服务 AI Chat
    AI
  • DuckDuckGo 推出了一项匿名 AI 聊天服务 AI Chat,允许用户匿名使用热门 AI 模型,包括 GPT-3.5、Claude 3 以及开源 Llama 3 和 Mixtral。用户不需要任何注册,可通过网站、DuckDuckGo 搜索引擎或在搜索框加入“!ai”或“!chat”快捷方式访问 AI Chat... 阅读全文

    优惠 MiniCPM-V:端侧可用的 GPT-4V 级多模态大模型

  • MiniCPM-V:端侧可用的 GPT-4V 级多模态大模型
    AI
  • MiniCPM-V是面向图文理解的端侧多模态大模型系列。该系列模型接受图像和文本输入,并提供高质量的文本输出。自2024年2月以来,我们共发布了4个版本模型,旨在实现领先的性能和高效的部署,目前该系列最值得关注的模型包括: MiniCPM-Llama3-V 2.5: MiniCPM-V系列的最新、性能最佳模型。总参数量... 阅读全文

    优惠 阿里巴巴开源Qwen2系列模型,包含5个尺寸的预训练和指令微调模型

  • 阿里巴巴开源Qwen2系列模型,包含5个尺寸的预训练和指令微调模型
    AI
  • 阿里在4月份发布最后一个Qwen1.5模型后,在昨晚正式开源了Qwen2系列模型。这一次,阿里为大家带来了: 5个尺寸的预训练和指令微调模型, 包括Qwen2-0.5B、Qwen2-1.5B、Qwen2-7B、Qwen2-57B-A14B以及Qwen2-72B; 在中文英语的基础上,训练数据中增加了27种语言相关的高质... 阅读全文

    优惠 新型智能对话推荐系统ILM:结合了大语言模型的理解和生成能力以及推荐系统的个性化推荐功能

  • 新型智能对话推荐系统ILM:结合了大语言模型的理解和生成能力以及推荐系统的个性化推荐功能
    AI
  • 谷歌推出一种新型的对话推荐系统,称为“Item-Language Model”(ILM)。这个系统结合了大语言模型(LLMs)的理解和生成能力以及推荐系统的个性化推荐功能。例如,你正在和一个非常聪明的在线购物助手聊天。你告诉它你想要一双新的运动鞋,它不仅能理解你的需求,还能根据你过去的购物习惯和其他用户的选择来推荐几款... 阅读全文

    优惠 创新的知识蒸馏方法PLaD:用于从大语言模型中提取知识并将其传授给更紧凑的学生模型

  • 创新的知识蒸馏方法PLaD:用于从大语言模型中提取知识并将其传授给更紧凑的学生模型
    AI
  • 佐治亚理工学院和谷歌的研究人员推出新方法PLaD(Preference-based Large Language Model Distillation),它用于从大语言模型(LLMs)中提取知识并将其传授给更紧凑的学生模型。这种方法特别适用于资源受限的环境中,能够有效地减少模型的内存占用和推理成本。 例如,你有一个非常... 阅读全文

    优惠 小多科技推出新型语言模型Xmodel-LM:紧凑高效的11亿参数(1.1B)模型,预训练于超过2万亿个token的数据集之上

  • 小多科技推出新型语言模型Xmodel-LM:紧凑高效的11亿参数(1.1B)模型,预训练于超过2万亿个token的数据集之上
    AI
  • 小多科技推出新型语言模型Xmodel-LM,它是一个紧凑高效的11亿参数(1.1B)模型,预训练于超过2万亿个token的数据集之上。Xmodel-LM的特点在于它在较小的模型规模下,却能展现出与现有开源语言模型相似或更优的性能。例如,你有一个智能助手,它可以帮助你回答问题、撰写文章,甚至学习新的语言。但通常这些助手需... 阅读全文

    优惠 强化学习算法DAAs:人类反馈强化学习中的应用

  • 强化学习算法DAAs:人类反馈强化学习中的应用
    AI
  • 斯坦福大学、马萨诸塞大学阿默斯特分校和德克萨斯大学奥斯汀分校的研究人员推出强化学习算法Direct Alignment Algorithms(直接对齐算法,简称DAAs),特别是在人类反馈强化学习(Reinforcement Learning from Human Feedback,简称RLHF)中的应用。RLHF是一... 阅读全文