它把AI画画的天花板又抬高了一截 又一国产AI绘画模型 Chroma v20250609 一键整合包

AI,开源 11 4711

1. 模型概述

Chroma 是一个开源、无审查且面向社区构建的大模型。

  • 参数规模:
    Chroma 是一个拥有 89 亿(8.9B)参数的模型,基于 FLUX.1-schnell架构开发(技术报告即将发布)。它完全采用 Apache 2.0 许可证,这意味着任何人都可以自由使用、修改和在该模型基础上进行二次开发,无需企业或机构控制。

  • 训练状态:
    该模型仍在持续训练中,开发者欢迎用户反馈意见和建议,以帮助改进和优化模型。


2. 主要目标

Chroma 的主要目标包括:

  • 大规模数据集训练:
    使用包含 500 万样本的数据集进行训练,这些数据从 2000 万个样本中精心筛选而来,涵盖动漫、毛茸茸角色(furry)、艺术作品和照片等内容。

  • 完全无审查:
    在模型中重新引入被其他模型忽略的人体解剖相关概念,确保内容生成不受限制。

  • 提供可靠的开源选项:
    为需要高质量文本到图像生成能力的用户和开发者提供一个开放、透明的替代方案。


3. 当前进展与资源

开发者提供了多个平台供用户查看模型的训练进度和相关资源:


4. 技术亮点

4.1 架构修改(Architecture Modifications)

  • 从 120 亿参数缩减到 89 亿参数:
    FLUX 原始架构有约 120 亿参数,其中 33 亿参数仅用于编码单个输入向量(如时间步信息和 CLIP 向量)。开发者将这部分替换为更小的 2.5 亿参数的前馈网络(FFN),从而显著减少模型大小,同时保持性能。

  • MMDiT 掩码优化(Masking T5 Padding Tokens):
    通过屏蔽 T5 和 MMDiT 中的填充标记(padding tokens),提高生成质量和训练稳定性。具体做法是只保留一个填充标记,其余全部掩码,避免模型过度关注无效信息。

  • 时间步分布优化(Timestep Distributions):
    改进了 FLUX 中的时间步采样策略,采用 -x^2 分布代替原有的 "lognorm" 分布,增强对高噪声和低噪声区域的训练覆盖,防止训练过程中的损失峰值问题。

  • 最小批次最优传输(Minibatch Optimal Transport):
    引入最优传输理论优化扩散模型的学习路径,减少“路径模糊”,加速训练收敛。


6. 开发者致谢

  • Fictional.ai提供了大力支持,推动了开源 AI 的发展。

  • 用户可以在 Fictional.ai 网站上尝试使用该模型。


7. 支持开源 AI

由于模型训练非常昂贵(目前已消耗超过 6000 小时的 H100 GPU 时间),开发者鼓励社区支持开源 AI 的发展。


顺手放一些我生成的图片

整合包20250609说明

1 修改了禁止外网分享

2 理论上应该是支持40系和50系显卡(50系未测试AI环境是cuda12.8

3 生成的图片保存在output文件夹

4 本人觉得这个模型出图质量还是很不错的

5 视后续欢迎程度再考虑是否继续二次开发

6 本人4070ti spuer win11 ltsc +cuda12.4 完美运行 一张图大概一分钟,最低估计要12g显卡。

7 只支持英伟达,别问A卡了。有A卡的 换显卡吧

点击查看

下载有疑问看下这里


相关推荐:

我要评论:

◎欢迎参与讨论,请自觉遵守国家法律法规。

已有 11 条评论

  1. 酷炫就火龙果 酷炫就火龙果

    电脑开一会就打不开网页了,每次都要重启电脑后才能再打开用,而且用几次之后就无法生成图片了,走到100%之后弹出一串英文,这种情况怎么办哦

    1. 剑心 剑心

      升级电脑配置

      1. 酷炫就火龙果 酷炫就火龙果

        285K+5090了,就是出现这样的问题,软件只有刚开机那一会可以打开网页,后面玩一会再去打开就一直无法链接网页了,必须重启电脑后才能再正常使用

        1. 剑心 剑心

          看看黑色窗口提示什么

          1. 酷炫就火龙果 酷炫就火龙果

            INFO:root:Requested to load PixArtTEModel_
            Requested to load PixArtTEModel_
            INFO:root:loaded completely 9.5367431640625e+25 9083.38671875 True
            loaded completely 9.5367431640625e+25 9083.38671875 True
            INFO:root:CLIP/text encoder model load device: cuda:0, offload device: cpu, current: cuda:0, dtype: torch.float16
            CLIP/text encoder model load device: cuda:0, offload device: cpu, current: cuda:0, dtype: torch.float16

          2. 酷炫就火龙果 酷炫就火龙果

            前面显示的是
            ERROR:root:Failed to check frontend version: invalid literal for int() with base 10: 'torch\n'
            Failed to check frontend version: invalid literal for int() with base 10: 'torch\n'
            INFO:root:[Prompt Server] web root: D:\Chroma20250609\jian27\lib\site-packages\comfyui_frontend_package\static
            [Prompt Server] web root: D:\Chroma20250609\jian27\lib\site-packages\comfyui_frontend_package\static

            1. 剑心 剑心

              是不是内存太低了?

              1. 酷炫就火龙果 酷炫就火龙果

                不是的吧,内存是32G的

  2. 友好笑学姐 友好笑学姐

    我看了以下模型都有36版本了

  3. 友好笑学姐 友好笑学姐

    老大怎样更换模型

    1. 剑心 剑心

      这个模型是默认的 无法更换

只显示最新的15条留言