1. 模型概述
Chroma 是一个开源、无审查且面向社区构建的大模型。
参数规模:
Chroma 是一个拥有 89 亿(8.9B)参数的模型,基于 FLUX.1-schnell架构开发(技术报告即将发布)。它完全采用 Apache 2.0 许可证,这意味着任何人都可以自由使用、修改和在该模型基础上进行二次开发,无需企业或机构控制。训练状态:
该模型仍在持续训练中,开发者欢迎用户反馈意见和建议,以帮助改进和优化模型。
2. 主要目标
Chroma 的主要目标包括:
大规模数据集训练:
使用包含 500 万样本的数据集进行训练,这些数据从 2000 万个样本中精心筛选而来,涵盖动漫、毛茸茸角色(furry)、艺术作品和照片等内容。完全无审查:
在模型中重新引入被其他模型忽略的人体解剖相关概念,确保内容生成不受限制。提供可靠的开源选项:
为需要高质量文本到图像生成能力的用户和开发者提供一个开放、透明的替代方案。
3. 当前进展与资源
开发者提供了多个平台供用户查看模型的训练进度和相关资源:
Hugging Face 调试仓库:
https://huggingface.co/lodestones/chroma-debug-development-onlyCivitAI 展示页面:
https://civitai.com/posts/13766416CivitAI 模型下载地址:
https://civitai.com/models/1330309/chroma
4. 技术亮点
4.1 架构修改(Architecture Modifications)
从 120 亿参数缩减到 89 亿参数:
FLUX 原始架构有约 120 亿参数,其中 33 亿参数仅用于编码单个输入向量(如时间步信息和 CLIP 向量)。开发者将这部分替换为更小的 2.5 亿参数的前馈网络(FFN),从而显著减少模型大小,同时保持性能。MMDiT 掩码优化(Masking T5 Padding Tokens):
通过屏蔽 T5 和 MMDiT 中的填充标记(padding tokens),提高生成质量和训练稳定性。具体做法是只保留一个填充标记,其余全部掩码,避免模型过度关注无效信息。时间步分布优化(Timestep Distributions):
改进了 FLUX 中的时间步采样策略,采用-x^2分布代替原有的 "lognorm" 分布,增强对高噪声和低噪声区域的训练覆盖,防止训练过程中的损失峰值问题。最小批次最优传输(Minibatch Optimal Transport):
引入最优传输理论优化扩散模型的学习路径,减少“路径模糊”,加速训练收敛。
6. 开发者致谢
Fictional.ai提供了大力支持,推动了开源 AI 的发展。
用户可以在 Fictional.ai 网站上尝试使用该模型。
7. 支持开源 AI
由于模型训练非常昂贵(目前已消耗超过 6000 小时的 H100 GPU 时间),开发者鼓励社区支持开源 AI 的发展。
Ko-fi 捐助链接:
https://ko-fi.com/lodestonerock/goal?g=1ETH 地址捐赠:
0x679C0C419E949d8f3515a255cE675A1c4D92A3d7Discord 社区:
discord.gg/SQVcWVbqKx










顺手放一些我生成的图片











整合包20250609说明
1 修改了禁止外网分享
2 理论上应该是支持40系和50系显卡(50系未测试AI环境是cuda12.8)
3 生成的图片保存在output文件夹
4 本人觉得这个模型出图质量还是很不错的
5 视后续欢迎程度再考虑是否继续二次开发
6 本人4070ti spuer win11 ltsc +cuda12.4 完美运行 一张图大概一分钟,最低估计要12g显卡。
7 只支持英伟达,别问A卡了。有A卡的 换显卡吧
电脑开一会就打不开网页了,每次都要重启电脑后才能再打开用,而且用几次之后就无法生成图片了,走到100%之后弹出一串英文,这种情况怎么办哦
升级电脑配置
285K+5090了,就是出现这样的问题,软件只有刚开机那一会可以打开网页,后面玩一会再去打开就一直无法链接网页了,必须重启电脑后才能再正常使用
看看黑色窗口提示什么
INFO:root:Requested to load PixArtTEModel_
Requested to load PixArtTEModel_
INFO:root:loaded completely 9.5367431640625e+25 9083.38671875 True
loaded completely 9.5367431640625e+25 9083.38671875 True
INFO:root:CLIP/text encoder model load device: cuda:0, offload device: cpu, current: cuda:0, dtype: torch.float16
CLIP/text encoder model load device: cuda:0, offload device: cpu, current: cuda:0, dtype: torch.float16
前面显示的是
ERROR:root:Failed to check frontend version: invalid literal for int() with base 10: 'torch\n'
Failed to check frontend version: invalid literal for int() with base 10: 'torch\n'
INFO:root:[Prompt Server] web root: D:\Chroma20250609\jian27\lib\site-packages\comfyui_frontend_package\static
[Prompt Server] web root: D:\Chroma20250609\jian27\lib\site-packages\comfyui_frontend_package\static
是不是内存太低了?
不是的吧,内存是32G的
我看了以下模型都有36版本了
老大怎样更换模型
这个模型是默认的 无法更换