nunchaku-flux.1-kontext-dev AI生图一键整合包 最低4G显卡可运行 30秒出图 v20250830 支持无限生图+批量图片编辑+lora模型+超分

AI,开源 95 15953

心血来潮,想试试FLUX.1-Kontext-dev 这个新出的模型,但是奈何显卡不是很牛X,生图效率不够高,所以找了下,发现nunchaku 双截棍 这个量化模型还不错,就花了点时间学习下。

然后又花点时间写了个界面,方便大伙来玩玩这个。 我的4070ti spuer 16G 30步 出1024x1024 大概30秒,显卡占用不到4G,这个效率我还是满意的。

下面是一些生成的图片 你们看看

整合包说明 

1 最低4G显卡就可以运行

2 支持50系显卡

3 你们的显卡和我不一样,可能第一次运行的时候会自动下载模型文件,等待下载完成即可

4 如果解压出错,使用winrar管理员身份解压即可,解压出错,运行后就会提示模型加载失败的问题。

5 如果觉得出图质量不够满意 可以增加步数来提升最终出图质量

v20250701 更新说明

1 增加生成图片数量,输入diao 可以无限生图

2 增加图片编辑,并附了几个演示案例,你们不会的话 照抄就是了

3 修正部分bug

V20250703 更新说明

1 增加图像编辑的尺寸

2 修正部分小BUG

v20250704 更新说明

1 增加图像生成 lora模型支持

2 修正部分小BUG

v20250705 更新说明

1 修改启动端口为2579

v20250706 更新说明

1 增加图像编辑批量处理,比如你可以把一批图片的风格改成其他

2 修正部分小bug

v20250710 更新说明

1 修改了lora模型可以自动加载列表,省的手动去设置路径,只要把lora模型文件放到Models\lora即可

2 增加了图片尺寸自定义,可以手动输入你要生成的图片尺寸

3 修正部分小bug

v20250711 更新说明

1 增加了批量读取提示词文件,实现批量生图

2 批量生图加入了lora模型支持,如果不想使用lora模型,不要去设置权限 保持默认就不会生效,以后修复这个bug。

v20250714 更新说明

1 增加图像编辑支持lora。这部分由群内傻木完善。

2 修正N多bug

3 去除一个多余的模型,目前主模型只保留一个。压缩包体积减少5G多。

附上模型加载失败,自动下载模型教程

v20250717 更新说明

1 图像编辑增加原图尺寸输出

2 图像编辑增加原文件名保存

图像编辑增加自定义步数,默认50步。如果觉得慢了,自己手动改小点

4 修改程序启动完毕后自动打开网页地址。

v20250728 更新说明

1 增加了图片编辑的超分,可以超分X2,X4倍,我感觉有这2个就够用了

2 修正部分小bug

20250831 更新说明

1 修正一些小bug

2 增加了编辑图片种子

点击查看

下载有疑问看下这里


相关推荐:

我要评论:

◎欢迎参与讨论,请自觉遵守国家法律法规。

已有 95 条评论

  1. 紧张笑草莓 紧张笑草莓

    最新版,为什么图片编辑,怎么调整都是原图,别的功能没问题

    1. 剑心 剑心

      别把原图那个勾点上了

      1. 紧张笑草莓 紧张笑草莓

        关了,好像还是不变欸

  2. 蜜蜂感性 蜜蜂感性

    能用civitai上的flux.1.dev模型吗,生成的全部偏西化的面孔,没法生成亚洲性的面孔

    1. 剑心 剑心

      lora模型可以

  3. 小熊猫苹果 小熊猫苹果

    QQ群密码多少?jian27?

    1. 剑心 剑心

      进群付费的

  4. 蜜蜂感性 蜜蜂感性

    想类似Stable Diffusion一样,能够把默认的提示词、长宽比和设置调成别的,打开就无脑生成就好,请问编辑哪个文件

    1. 剑心 剑心

      把提示词文件拖入批量生图,设置好了 尺寸 不就可以了?

  5. 航空火星上 航空火星上

    编辑图像里,加载了lora,提交了关键词后,第一次有效,再后边OUT出来的是原图,就是有成功,有原图

    1. 剑心 剑心

      权重

  6. 摩托搞怪 摩托搞怪

    请问出现报错信息:Could not locate cudnn_graph64_9.dll. Please make sure it is in your library path!
    Invalid handle. Cannot load symbol cudnnCreate
    怎么解决?

    1. 剑心 剑心

      解压不完整 有文件损失?

      1. 摩托搞怪 摩托搞怪

        没有提示解压错误,重新解压也是这样

        1. 剑心 剑心

          你是什么显卡?安装好cuda和对应的cudnn版本没?

          1. 摩托搞怪 摩托搞怪

            谢谢大佬,重新下载就可以了

      2. 碧蓝扯电话 碧蓝扯电话

        请问大佬,我的配置是4060、8G显存、16G运行内存,
        在使用“图片生成”“批量文生图”的时候,都可以用示例里面的东西测试成功,然后用“图像编辑”这个功能的时候,无论传什么图上去,提示词写的很简单,就是“remove his hat”,但是过几秒钟结果框那里都会显示“错误”,这个有无解决方法呀?

        1. 腼腆保卫灯泡 腼腆保卫灯泡

          跟我的配置差不多,我是有时会奔溃,把虚拟内存调高我是设置了30多G解决。

  7. 聪明百合 聪明百合

    越来越好了,超赞!能不能考虑多图参考的功能啊,图片编辑参考多张然后根据提示词把不同的元素整合在一起,电商和模特换衣这个比较有需求,期待加入。另外,图片上传后通常能以缩略图方式展现,现在只是文件列表,有点不够直观,看看能不能升级一下,辛苦啦~

    1. 剑心 剑心

      都会考虑的,文件列表那里是因为可以批量操作。比如你可以拖入100张图片进去

  8. 小笼包认真 小笼包认真

    请问还是出现加载模型失败是什么原因, 已经通过修复模型加载失败.bat重新下载模型了
    ✅ 密钥有效!
    🔓 使用缓存密钥成功登录。
    🚀 验证通过,正在启动主程序...
    Cannot access gated repo for url https://hf-mirror.com/black-forest-labs/FLUX.1-dev/resolve/main/model_index.json.
    Access to model black-forest-labs/FLUX.1-dev is restricted. You must have access to it and be authenticated to access it. Please log in.

    1. 剑心 剑心

      你解压的时候 肯定会有错误提示 才会出现这个 仔细看整合包说明

  9. 疯狂演变月亮 疯狂演变月亮

    牛逼,大神!请收下我的膝盖。每次都更新到我心坎里。

  10. 野性给书包 野性给书包

    文生图能用,图生图会报错是怎么回事

    1. 剑心 剑心

      提示什么?

      1. 野性给书包 野性给书包

        我重新解压了一下,图生图也好用了,还可以自己上传lora,很好用,不过什么时候可以把图生图的步数控制也做出来就好了,现在是固定28步,像文生图的步数那样可以调整就好了

        1. 剑心 剑心

          下载最新整合包

          1. 碧蓝扯电话 碧蓝扯电话

            作者您好,我已经两次尝试下载最新版的整合包。
            我的配置是4060、16G运行内存、8G-NVIDA独显。
            前两个-文生图、批量文生图功能都没问题,但是每次运行第三个“图片编辑”功能的时候,任意导入一张图片,写一个简单的“remove his hat”这种提示词,点生成大约6秒钟之后就会提示错误。
            换了很多图片都不可以,而且只有这个功能不可以...
            想请教一下这个该如何改变

            1. 剑心 剑心

              图片路径有中文或者符号或者空格之类

              1. 剑心 剑心

                显存不足,如果你用实例的图生图 没问题,说明你自己使用的图片尺寸太大了。导致你显卡负荷不了

              2. 碧蓝扯电话 碧蓝扯电话

                感谢大佬的回复! 可是...我刚刚改了一下文件路径,就放在桌面,然后名字也改成了一个字母可是依然失败了。
                我换了个您的Diaomo文生图7.0试了一下,依然生图失败,”状态信息“那一栏显示了:
                “图生图失败: CUDA out of memory. Tried to allocate 3.62 GiB. GPU 0 has a total capacity of 8.00 GiB of which 0 bytes is free. Of the allocated memory 10.44 GiB is allocated by PyTorch, and 309.43 MiB is reserved by PyTorch but unallocated. If reserved but unallocated memory is large try setting PYTORCH_CUDA_ALLOC_CONF=expandable_segments:True to avoid fragmentation. See documentatation for Memory Manage

          2. 碧蓝扯电话 碧蓝扯电话

            您好,请问最新的整合包是只用下载后缀为0717的还是说之前的全部都要一块下载呀

            1. 剑心 剑心

              下一个就好了

  11. 白羊温婉 白羊温婉

    不能做成自动更新吗,更新这么频繁,每次都要下载20多G,有点吃力啊,自动更新最好,然后LORA有时候需要重启才能设置,

    1. 剑心 剑心

      嫌麻烦 你可以不更新啊,我没有强行要求你更新。我写代码都不嫌弃麻烦,你一个伸手党居然还嫌弃麻烦。我真无语了

  12. 闪闪扯未来 闪闪扯未来

    3060 12G 显卡 加载模型失败

    🗝️ 检测到环境变量,尝试自动验证...
    ✅ 密钥有效!
    🚀 验证通过,正在启动主程序...
    正在自动加载默认模型: nunchaku-flux.1-dev
    正在加载模型: nunchaku-flux.1-dev
    ❌ 模型加载失败: Error while deserializing header: HeaderTooSmall
    * Running on local URL: http://0.0.0.0:7860
    2025-07-11 20:36:32,100 - INFO - HTTP Request: GET https://api.gradio.app/pkg-version "HTTP/1.1 200 OK"
    2025-07-11 20:36:34,219 - INFO - HTTP Request: GET http://localhost:7860/gradio_api/startup-events "HTTP/1.1 200 OK"
    2025-07-11 20:36:36,275 - INFO - HTTP Reque

    1. 剑心 剑心

      仔细看文中整合包说明

  13. 日记本不安 日记本不安

    为什么我的界面和你的不一样。没有图片编辑和lora选项,

    1. 剑心 剑心

      下载最新的日期

  14. 溪流时尚 溪流时尚

    图像编辑模型 物理内存16G 一加载系统就蓝屏

    1. 剑心 剑心

      可能你的内存兼容性有问题。无法全力运行

  15. 聪明百合 聪明百合

    大佬,考虑不考虑增加一下多图参考功能,如果可以的话那就完美了哈!~

    1. 剑心 剑心

      这个模型 好像不支持多图

只显示最新的15条留言