7 月 4 日消息,腾讯混元文生图大模型(混元 DiT)今日宣布开源小显存版本,仅需 6G 显存即可运行,适合在个人电脑上进行本地部署的开发者,极大地方便了对显存要求较低的开发环境。
此外,腾讯宣布混元文生图打标模型“混元 Captioner”正式对外开源。该模型不仅支持中英文双语,还专门针对文生图场景进行了深度优化,致力于帮助开发者更高效地创建和管理文生图数据集,从而提升数据集的质量和开发效率。
腾讯混元 DiT 模型升级
腾讯混元 DiT 模型宣布了三大更新:推出小显存版本与 Kohya 训练界面,并升级至 1.2 版本,进一步降低使用门槛的同时提升图片质量。
基于 Diffusion Transformer(DiT)架构的文生图模型生成图片质感更佳,但对显存的要求却非常高。因此,混元 DiT 推出了小显存版本,最低要求 6GB 显存即可运行优化推理框架,这对于使用个人电脑本地部署的开发者来说非常友好。
经过与 Hugging Face 合作,小显存版本、LoRA 与 ControlNet 插件,都已经适配到 Diffusers 库中。开发者无需下载原始代码,仅用三行代码即可调用,简化了使用成本。
同时,混元 DiT 宣布接入 Kohya,让开发者可以低门槛地训练专属 LoRA 模型。
Kohya 是一个开源的、轻量化模型微调训练服务,提供了图形化的用户界面,被广泛用于扩散模型类文生图模型的训练。
用户可以通过图形化界面,完成模型的全参数精调及 LoRA 训练,无需涉及到代码层面的细节。训练好的模型符合 Kohya 生态架构,可以低成本与 WebUI 等推理界面结合,实现一整套“训练-生成”工作流。
混元 Captioner
在提升模型易用性的同时,腾讯混元团队最新开源了打标模型 —— 混元 Captioner。
借助打标模型,开发者可以快速生成数据集。具体来说,文生图开发者将原始图片集导入混元 Captioner,后者将生成标注;也可以导入图片与原始描述,利用混元 Captioner 过滤其中的无关信息,并完善和优化图片描述,以提高数据质量。
目前,业界对于图片描述文本的生成,主要使用通用多模态 Captioner 模型,存在描述过于简单或繁琐(与画面描述的无关信息过多)、缺少背景知识导致无法识别知名人物和地标等问题,并且许多模型并非中文原生,中文描述不够精准。
▲ 混元 Captioner 对图片描述进行结构化与准确度提升混元
Captioner 模型号称针对文生图场景专门进行优化:
构建了结构化的图片描述体系;
在模型层面,通过注入人工标注、模型输出、公开数据等多种来源,以提升Caption描述的完整性。
注入知名文学作品形象、地标、食物、动物、中国元素与知识等背景知识。
▲ Capiton 模型的背景知识更好,能够识别宫保鸡丁
▲ Captioner 模型结构化图片描述体系