腾讯混元文生图大模型(混元 DiT)近日宣布了一系列重大更新,包括开源小显存版本和推出混元 Captioner 打标模型,旨在降低使用门槛,提升用户体验,并助力开发者更高效地制作文生图数据集。
腾讯混元开源文生图大模型相关链接:
腾讯混元 DiT 模型进行了三大更新:
- 小显存版本:为了适应个人电脑本地部署的需求,混元 DiT 推出了仅需 6G 显存即可运行的小显存版本,大幅降低了硬件要求。
- Kohya 训练界面:混元 DiT 接入了 Kohya,这是一个开源的、轻量化的模型微调训练服务,提供图形化用户界面,使得开发者可以更容易地训练专属 LoRA 模型,无需深入代码层面。
- 版本升级至 1.2:混元 DiT 升级至 1.2 版本,不仅降低了使用门槛,还提升了生成图片的质量。
混元 Captioner 打标模型
腾讯混元团队还开源了混元 Captioner 打标模型,该模型支持中英文双语,并针对文生图场景进行了专门优化。混元 Captioner 可以帮助开发者快速生成数据集,通过导入原始图片集或图片与原始描述,模型能够生成标注,过滤无关信息,并优化图片描述,从而提高数据质量。
业界影响
腾讯混元文生图大模型的这些更新,特别是小显存版本和混元 Captioner 的开源,对于广大开发者而言是一个利好消息。它们不仅降低了技术门槛,使得更多开发者能够参与到文生图模型的开发和应用中来,而且通过提供更高效的工具,加速了文生图数据集的制作过程,有助于推动相关领域的研究和应用发展。
0条评论