推荐类别

栏目分类

优惠 基于7-Zip 的压缩工具NanaZip 3.0 发布,引入 Win UI 和 Mica 效果

  • 基于7-Zip 的压缩工具NanaZip 3.0 发布,引入 Win UI 和 Mica 效果
    工具
  • NanaZip 3.0 的发布标志着这款基于 7-Zip 的压缩工具的重大进化,它不仅仅在界面上追求现代感与美感,同时也在功能和架构上进行了显著的改进与扩展,以适应更广泛的用户需求和操作系统环境。以下是这次更新的一些核心要点:NanaZip 3.0 版本是一个全面进步的版本,它在保持与7-Zip兼容性的同时,通过现代化... 阅读全文

    优惠 系统安装盘制作工具Rufus发布4.5版本,适用于UEFI、NTFS、MBR、ISO 和GRUB

  • 系统安装盘制作工具Rufus发布4.5版本,适用于UEFI、NTFS、MBR、ISO 和GRUB
    工具
  • Rufus 4.5.2180 版本的发布标志着这款广受好评的可启动媒体创建工具的重大更新,带来了多项增强功能与修复,确保用户能够更安全、高效地制作和使用启动盘。以下是此次更新的关键亮点: 实时UEFI引导加载器散列验证:新版本通过引入MD5算法校验和,实现在每次启动时进行自我验证,提高了引导过程的安全性,确保介质未被篡... 阅读全文

    优惠 微软PowerToys v0.81.0 新增带 AI 的高级粘贴(Advanced Paste)功能

  • 微软PowerToys v0.81.0 新增带 AI 的高级粘贴(Advanced Paste)功能
    工具
  • PowerToys v0.81.0 新增了一个带 AI 的高级粘贴(Advanced Paste)功能,它可以根据剪贴板内容以及提交给 AI 的提示词来决定最终粘贴的内容,需要 OpenAI API 密钥,还能直接将文本粘贴为 JSON、Markdown、纯文本。@Appinn Advanced Paste 实际上提供... 阅读全文

    优惠 文生3D模型Dreamer XL:将文本转换为高分辨率的3D模型

  • 文生3D模型Dreamer XL:将文本转换为高分辨率的3D模型
    AI
  • 来自英国杜伦大学、英国纽卡斯尔大学、中国地质大学的研究人员推出Dreamer XL,它用于将文本转换为高分辨率的3D模型。这项技术的目标是通过改进现有的文本到3D生成过程,生成更加逼真和详细的3D内容。例如,你想要创建一个虚拟现实游戏的环境,或者需要在建筑演示中展示一个新设计的建筑物。使用Dreamer XL,你只需提... 阅读全文

    优惠 基于 Ray、DeepSpeed 和 HF Transformers 构建的高性能 RLHF 框架OpenRLHF

  • 基于 Ray、DeepSpeed 和 HF Transformers 构建的高性能 RLHF 框架OpenRLHF
    AI
  • OpenLLMAI 团队推出基于 Ray、DeepSpeed 和 HF Transformers 构建的高性能 RLHF 框架OpenRLHF,它是一个用于训练大语言模型(LLM)的高效、可扩展且高性能的强化学习从人类反馈(RLHF)框架。RLHF是一种通过人类反馈来指导机器学习模型的训练方法,它在大型语言模型的训练中... 阅读全文

    优惠 华为推出高效Transformer模型SLAB,旨在解决传统Transformer架构在资源受限设备上部署时面临的高计算成本问题

  • 华为推出高效Transformer模型SLAB,旨在解决传统Transformer架构在资源受限设备上部署时面临的高计算成本问题
    AI
  • 华为推出高效Transformer模型SLAB,旨在解决传统Transformer架构在资源受限设备上部署时面临的高计算成本问题。通过改进模型的注意力机制和归一化层,SLAB能够在保持性能的同时减少计算量和提高运行速度。例如,我们需要在一个移动设备上部署一个图像分类模型,该设备计算资源有限。使用传统的Transform... 阅读全文

    优惠 轻量级大型多模态模型Imp:为移动设备等资源受限的场景提供强大的AI能力

  • 轻量级大型多模态模型Imp:为移动设备等资源受限的场景提供强大的AI能力
    AI
  • 杭州电子科技大学推出轻量级大型多模态模型Imp,它旨在为移动设备等资源受限的场景提供强大的人工智能能力。Imp模型利用了大语言模型(LLMs)的能力,通过系统的研究和优化,在保持模型规模较小(例如2B到4B参数)的同时,实现了与更大模型相媲美的性能。例如,你正在开发一个移动应用程序,该应用程序需要帮助用户识别植物并提供... 阅读全文

    优惠 用于大语言模型的高效微调新方法MoRA

  • 用于大语言模型的高效微调新方法MoRA
    AI
  • 来自北京航空航天大学和微软的研究人员推出一种新的高效微调(Fine-tuning)方法MoRA,用于大语言模型(LLMs)。微调是一种技术,可以让已经预训练好的模型适应特定的下游任务,而MoRA旨在以更少的参数实现这一过程,从而提高效率。例如,我们有一个已经预训练好的大型语言模型,现在需要让它能够更好地处理金融领域的文... 阅读全文

    优惠 基于transformer架构的开源通用机器人策略模型Octo

  • 基于transformer架构的开源通用机器人策略模型Octo
    AI
  • 加州大学伯克利分校、斯坦福大学、卡内基梅隆大学和谷歌DeepMind推出开源通用机器人策略模型Octo,Octo基于transformer架构,并通过在800,000个多样化的机器人操作轨迹上进行预训练,这些轨迹来自Open X-Embodiment数据集。这个模型的特点是支持灵活的任务定义和观察方式,并且能够快速适应... 阅读全文

    优惠 新型强化学习智能体DIAMOND:在一个基于扩散模型的世界模型中接受训练

  • 新型强化学习智能体DIAMOND:在一个基于扩散模型的世界模型中接受训练
    AI
  • 爱丁堡大学、微软研究院、日内瓦大学的研究人员推出新型强化学习(Reinforcement Learning, RL)智能体DIAMOND(DIffusion As a Model Of eNvironment Dreams),它在一个基于扩散模型的世界模型中接受训练。扩散模型是一种用于图像生成的先进方法,它通过学习逆向... 阅读全文

    优惠 Adobe Research推出一种使用文生图模型进行高效概念驱动生成的方法,即个性化残差和基于局部注意力的引导采样

  • Adobe Research推出一种使用文生图模型进行高效概念驱动生成的方法,即个性化残差和基于局部注意力的引导采样
    AI
  • Adobe Research推出一种使用文本到图像扩散模型进行高效概念驱动生成的方法,即个性化残差和基于局部注意力的引导采样。它通过训练一个预设的文本条件扩散模型,学习模型部分层的小秩残差(low-rank residuals),来实现高效的概念驱动生成。简单来说,就是教会一个计算机程序,如何根据用户输入的文字描述(比... 阅读全文

    优惠 LLM-Microscope:探索Transformer解码器中的线性特性,尤其是像GPT、LLaMA、OPT、BLOOM等模型

  • LLM-Microscope:探索Transformer解码器中的线性特性,尤其是像GPT、LLaMA、OPT、BLOOM等模型
  • AIRI、Skoltech、SberAI、HSE 大学、莫斯科国立罗蒙诺索夫大学的研究人员发布论文,主题是探索Transformer解码器中的线性特性,尤其是像GPT、LLaMA、OPT、BLOOM等模型。Transformer模型在自然语言处理(NLP)领域取得了革命性的进展,但它们的内部工作机制仍然不完全清楚。这项... 阅读全文
    我要爆料 我的收藏 顶部
    快速登录

    自动登录 忘记密码?