留言

5757

汇聚站内前300条留言   本页面24小时更新一次


感谢分享!
哪个工具?
N卡的那个工具文件去...
谢谢大佬
换脸技术得你自己研究...
大佬为什么换脸一开始...
666的飞起
谢谢大佬
感谢分享
非常感谢!!
剑哥牛掰克拉斯!
老有无聊的人攻击网站...
老有无聊的人攻击网站...
网站估计已经崩溃了,...
账号老是无法登陆,二...
什么?
视频打不开
很好

很好

很好

...
5.0 我有个完整含模型...
老大什么时候更新个完...
感谢分享
仔细看视频教程
感谢分享辛苦!
多谢分享,学习学习
请问视频处理要怎么重...
看起来很不错
感觉很不错的的样子
提示缺乏模型文件
再次感谢了
[WinError 3] 系统找不到...
Failed to find E:\BaiduNetdisk...
看了也没有用,是真的...
好素材
66666666666
感谢感谢,确实是可以...
开魔法试试
大佬问下,模型下载错...
剑哥888
谢谢分享
AI动不动就是几十几百G...
真是好东西啊
好,很好,非常好
谢谢分享
谢谢分享!
看看
https://www.jian27.com/html/80...
我使用这个软件生成出...
收到.大师....谢谢!
我也没见过这个情况,...
感谢大佬分享
Replay hit an error
   spawn ...
安装cuda11.8
大哥,转绘只用cpu,不...
晚上测试,剑大出品有...
提示什么?
这一次安装时:提示重...
已经补上百度网盘链接
大神,我有条夸你的留...
博主好,你这个网站在...
好的
安装好amd套件。玩AI 还...
大佬,我用的12G 6700XT...
终于明白了Replay-1.11.0-i...
66666666666
牛逼啊大神,感谢
已经重新上传好
网盘里好像没有3.3.3
6666
谢谢大佬分享
感谢楼主分享
感谢分享
谢谢分享,更新一下看...
感谢分享
感谢分享
没
没有中文
大神,没有 中文版吗...
大佬怎么没有javPlayer的...
相当nice
不知道这个是不是已经...
好厉害,牛
好厉害,牛
ok
换其他网盘下载,百度...
谢谢谢谢
文末仔细看看
地址在哪里
谢谢分享
AI绘画之反推神器!~欧...
谢谢分享
够用
想请问下大佬的4070TS综...
良心软件
很好和那后
6666
多谢分享
换别的网盘试试
迅雷提示疑似包含违规...
谢谢大佬
非常感谢
谢谢
6666666
既然是小白 就应该有...
软件界面好多参数设置...
国产版,试试
good!
好东西做些
谢谢大佬分享
需要多大的显存和内存...
感谢
滴滴
支持!
谢谢分享
666666
谢谢分享
感谢
这个可以有
找找本体
网站不能登录了,修复...
账号无法登录
谢谢分享
谢谢分享
找到了,从百度网盘重...
好
感谢分享!
谢谢分享
谢谢分享
非常感谢
谢谢
360。。。我们公司常出...
6666
需要评论
谢谢分享
如果支持下载抖音,视...
请问下,这个软件可以...
期待老大来个版本比较...
没有。我也奇怪。下的...
你修改过代码?
Traceback (most recent call la...
仔细看视频教程
已更新
不想下了,关掉黑色窗...
这个软件压缩包50兆,...
选择的run-cuda.bat运行 ...

OK的,换个视频可以...
good
更新3.3.3了
因为你没有下载图片啊...
{
{
之前有用過3.0覺得不錯...
谢谢分享
之前好像有分享我忘了
xxxxfx谢谢分享
谢谢大佬分享
有没有ai对口型的工具
qiangda a !!!
已经修正,并更新了版...
迅雷下载链接是百度网...
这下不用再下载360了!
6666
一直在更新,牛
谢谢
有
站长非常用心,
发个蓝凑
这个最大的优势是下载...
学习一下
软件不好用,试下载B...
感谢分享
感谢分享!下载来试试...
很好很好谢谢
很好很好.謝謝分享
大佬,为什么我怎么调...
换个视频试试
--------更多AI工具,开...
我突然想换电脑了~!
这个软件超级棒
就會看見看見
直接放C盘,你这C盘究...
感谢分享
非常强大,非常好用啊
不错不错
感谢分享
谢谢,
看看你
我也是这个问题 之前...
感谢分享!
感谢分享
我再次测试没有问题
想进去喝茶 你为什么...
想问一下到这里就没反...
用手机下载DNS优选,设...
支持
刚刚手机上下载了DNS优...
修改下你上网的dns
嗯… 无法访问此页面
...
谢谢分享
这个简单 适合小白
我没遇到这个问题,如...
真的不错
V6.2完整包,应该是最...
你用的是哪个版本?
大佬,软件一切运行正...
打开看了,内容更少了...
6750GRE,装了啊
感谢楼主的分享
感谢分享
不错,感谢分享
谢谢
姑娘一句穿不暖,痴儿...
有情感很重要的
32432423
我文末有写官方地址 ...
请问有没有安卓手机版...
那说明你不是在我这里...
不行
试试jian27
你是什么显卡?安装了...
解压密码,下载几个都...
To create a public link, set `...
好东西
感谢分享
感谢分享
感谢分享
感谢分享
要什么科学?解压即可...
没有科学无法使用啊!
https://www.myhelen.cn/helen/2...
怎么搭呀
你AI 环境搭建好了没?
大佬们,请问这是什么...
什么密码
资源分享
谢谢分享
要密码啊,谁知道呢
我好像登录不了
感谢分享
不麻烦老师们了,朋友...
请问哪位老师能给我贴...
安装好cuda11.8和对应的c...
已经在运行 不用处理...
这个哪里不对
Traceback ...
谢谢大佬分享
出现这个,怎么处理?...
多谢老板
大神,报moov atom not foun...
联系过作者,现在部分...
自己百度下这怎么修改...
大佬不会改DNS啊? 网...
谢谢分享
讯飞免费?
感谢分享
这是精简版的啊
谢谢
感恩
非常实用
修改你的上网DNS.我再...
修改你的上网DNS.我再...
下载地址那么明显看不...
为什么找不到服务器?
大侠,不能正常下载呢...
好东西~,感谢分享!...
审核这么久 审核通过...
不错哦 会开发的人太...
等待审核中
下载链接在哪里
瞅瞅看
试试看?
我好像没有遇到这样的...
我当时测试的时候 那...
Exception in callback _Proacto...
我说,兄弟啊,你这调...
a卡有救了
试试修改下你上网的dns...
学习一下 好东西
感谢楼主分享
下不了
嗯… 无法访问此页面
...
怎么下载不了啊
感谢分享
这个可以用java或者pytho...
你可以换下上网的dns试...
我这边没有问题 可以...
666666
比如:点“夸克网盘”...
哪个没反应?
非常不错
谢谢,换了还是不行,...
谢谢分享,大佬
看下下载地址,上面的...
修改你上网的dns,其他...
这个软件相当奈斯啊
三个网盘都不行,不知...
我不是什么大师,点击...
大师,为啥我点网盘下...
感谢分享
这个软件很不错啊,感...
本站搜索winrar 用这个...
模型下载后放到哪里,...
感谢大佬分享
沙发
谢谢大师的分享。
谢谢大师辛勤付出。
for download url
下载后解压总是出问题
靠~早点看到能省下一...
謝謝
谢谢分享
感恩您的分享
很奈斯
这个工具牛逼啊
感谢分享
谢谢大师,我再重新下...
阿达大大阿达
仔细看文末的说明
找不到播放源
很好,很香。感谢分享
仔细看视频教程
666
谢谢分享!
找不到已经完成的视频
感谢分享
感谢分享
感谢分享
没问题的
謝謝
谢谢
正好需要
thx 4 sharing
谢谢剑侠
夸克网盘链接好像失效...
刚才我更新了最新版了...
可以
66666666
估计是需要AI处理的功...
大佬链接复制进去报错...
6666
感谢大佬
很红很很好
是什么意思?
多谢分享4
已试用,很好
提示:找不到下载模块...
谢谢分享
666
感谢分享
复制出来看看
为什么显示提取操作没...
感谢好人
最新修改版 已经可以...
再次测试 没有问题
谢谢分享
没法打开软件
好多图片放大的软件,...
想知道,第一选择的图...
谢谢提供软件!很有用
爱你剑27
太美妙了
再次测试没问题
打不开网盘跳转。。。...
跑schnell版8G的显存都可...
666
666
团子翻译器5.3.0
试试cuda11.8 以及对应的...
谢谢
cuda安装的是12.61,cudnn9...
6
感谢分享
没有安装好cuda和cudnn
谢谢分享
To create a public link, set `...
终于下载好了,开限时...
从百度网盘下载还是报...
脸的图片 参考我的图...
但是确实是高清图啊,...
cuda版本不对
WARNING[XFORMERS]: xFormers ca...
脸那个图片有问题,换...
大佬 您好,我下载的...
太6了
真的很大
一如既往的牛
感谢
666666
因为我要你们支持正版...
为什么我看不到下载链...
本站搜索winrar 用这个...
666
666
解压缩好几条报错信息...
666
666
谢谢分享
厉害厉害
这个已经在提示你了,...
Python 3.10.6 (tags/v3.10.6:9c...
这个要你安装下ffmpeg?...
这明显不是我做的整合...
感谢分享
老大,这是什么情况
s...
大佬你好。我是N卡4070S...
看看咋样
谢谢分享
666
哪个页面的百度网盘链...
百度网盘链接失效了
感谢🙏🏻
6666666
我win10测试没问题
我的 windows11 打不开哦...
非常好
感谢分享
https://github.com/fudan-gener...
再次测试 没有问题,...
666
谢谢分享谢谢分享
感谢分享啊
我也一样,老版本能输...
Photoshop 2024
大佬求JavPlayer 这个免...
666
开源网站是哪个?
这个怎么下载。点击网...
英伟达显卡 显存16g
最低运行要求是多少啊...
支持4K,时长1小时,强...
感谢分享
已经放进去了 你重新...
感谢分型分享
谢谢分享
压缩包里没有Chrome
感谢分享
谢谢分享,下个玩玩
感谢分享
只是12G显存我的看完后...
感谢博主
感谢啊
下载软件
感谢!
感谢楼主
感谢分享
非常感谢
感谢大佬分享
多谢分享。
太棒了 感谢
可以
把你的科学上网工具关...
感谢
666
--------更多AI工具,开...
安卓系统就可以安装
已经修正
谢谢分享
感谢分享
看一下
已经算是有点旧的版本...
好好好好好好
谢谢
能安装到投影仪里面吗
无下载地址咧
感谢
感谢分享
要看你登陆b站的账号...
没有免安装的
megspot有没有离线免安...
谢谢分享,非常感谢
学习一下
感谢分享
下4K是不是需要会员?
太好用了!  无敌!!感谢!
不错
感谢大佬分享学习
感谢分享,谢谢。
感谢楼主分享
向日葵经常出问题,换...
https://github.com/JiuLing-zha...
win10 64bit 程序闪退无法...
hao de hen
hao dongxi !
[FACEFUSION.CORE] Processing s...
6666666
感谢分享
谢谢老大分享
谢谢大佬分享
代码是开源的,你可以...
估计你搞错了地方,我...
19美元
这玩意收费的,好贵
大佬,直接把链接复制...
我点几个网盘进去,页...
看看那个好用,试一试...
感谢分享🙏应该是不...
为什么你不睁大眼睛?
你看不到下载地址?
为什么下载不了
如何下载啊
一直在找,很好的软件
谢谢分享
v0.3.4  这个版本好像是...
谢谢大佬分享
感谢楼主分享
谢谢分享
感谢楼主分享
为什么你不好好看教程...
宝贝,有中文吗?
为什么解压好了run。bat...
谢谢
太好了,谢谢
感谢分享
感谢分享
感谢分享
感谢分享
感谢分享
我用GridPlayer
求个软件 视频对比软...
谢谢大佬分享
  1. 咖啡眼睛大 咖啡眼睛大
  2. 健康就小蝴蝶 健康就小蝴蝶
  3. 歪比巴卜 歪比巴卜
  4. 白猫专注 白猫专注
  5. 叽里哇啦 叽里哇啦
  6. 剑心 剑心
  7. 剑心 剑心
  8. 懦弱和鸭子 懦弱和鸭子
  9. 轻松踢钥匙 轻松踢钥匙
  10. 剑心 剑心
  11. 酷酷有小海豚 酷酷有小海豚
  12. 悲凉给丝袜 悲凉给丝袜
  13. 剑心 剑心
  14. 冬日舒心 冬日舒心
  15. 枕头健康 枕头健康
  16. 剑心 剑心
  17. 激昂的小懒猪 激昂的小懒猪
  18. 缥缈扯凉面 缥缈扯凉面
  19. 紧张与芝麻 紧张与芝麻
  20. 达摩二进制 达摩二进制
  21. 达摩二进制 达摩二进制
  22. 剑心 剑心
  23. 诺言寂寞 诺言寂寞
  24. 书包雪白 书包雪白
  25. 书包雪白 书包雪白
  26. 英勇用小蝴蝶 英勇用小蝴蝶
  27. 蚂蚁单身 蚂蚁单身
  28. 画板乐观 画板乐观
  29. 见鬼 见鬼
  30. 剑心 剑心
  31. 见鬼 见鬼
  32. 叽里哇啦 叽里哇啦
  33. 见鬼 见鬼
  34. 见鬼 见鬼
  35. 见鬼 见鬼
  36. 冷艳扯麦片 冷艳扯麦片
  37. 乌冬面缓慢 乌冬面缓慢
  38. 寒风怕孤单 寒风怕孤单
  39. 安详等于唇膏 安详等于唇膏
  40. 剑心 剑心
  41. 寒风怕孤单 寒风怕孤单
  42. 荷花平常 荷花平常
  43. 剑心 剑心
  44. 纯真给眼睛 纯真给眼睛
  45. 荷花平常 荷花平常
  46. 剑心 剑心
  47. b站粉丝头头 b站粉丝头头
  48. 身影活泼 身影活泼
  49. 剑心 剑心
  50. 荷花平常 荷花平常
  51. 剑心 剑心
  52. 老师喜悦 老师喜悦
  53. 老师喜悦 老师喜悦
  54. 温婉方学姐 温婉方学姐
  55. 剑心 剑心
  56. 爱吃三丫的铜锣烧 爱吃三丫的铜锣烧
  57. 荷花平常 荷花平常
  58. 含羞草感动 含羞草感动
  59. 裙子激情 裙子激情
  60. 剑心 剑心
  61. 生动打勾 生动打勾
  62. 鞋垫魁梧 鞋垫魁梧
  63. 不安踢钻石 不安踢钻石
  64. 冷酷含羞草 冷酷含羞草
  65. 不安保卫小鸭子 不安保卫小鸭子
  66. 内向就咖啡豆 内向就咖啡豆
  67. 枫叶失眠 枫叶失眠
  68. 枫叶失眠 枫叶失眠
  69. 剑心 剑心

  70. 剑心 剑心
  71. 水蜜桃单纯 水蜜桃单纯
  72. 冒险王18 冒险王18
  73. 风中的云 风中的云
  74. 聪慧就砖头 聪慧就砖头
  75. 聪慧就砖头 聪慧就砖头
  76. 聪慧就砖头 聪慧就砖头
  77. 裙子留胡子 裙子留胡子

    ok

  78. 隐形保卫茉莉 隐形保卫茉莉
  79. 大树欣慰 大树欣慰
  80. 剑心 剑心
  81. jevence12 jevence12
  82. 多情打寒风 多情打寒风
  83. 隐形保卫茉莉 隐形保卫茉莉
  84. 墨镜饱满 墨镜饱满
  85. 剑心 剑心
  86. 正直与香水 正直与香水
  87. 翅膀清脆 翅膀清脆
  88. 蓝天眯眯眼 蓝天眯眯眼
  89. 江南糖白虎 江南糖白虎
  90. 甜蜜小甜瓜 甜蜜小甜瓜
  91. 剑心 剑心
  92. 星际战神 星际战神
  93. 糊涂扯哈密瓜 糊涂扯哈密瓜
  94. 服饰长情 服饰长情
  95. 春天唠叨 春天唠叨
  96. 故事拉长 故事拉长
  97. 剑心 剑心
  98. 曙光游侠HL 曙光游侠HL
  99. 天空高大 天空高大
  100. 活力保卫滑板 活力保卫滑板
  101. 调皮等于大神 调皮等于大神
  102. 清秀打画板 清秀打画板
  103. 喜悦打高跟鞋 喜悦打高跟鞋
  104. 小伙时尚 小伙时尚
  105. 悲凉向白云 悲凉向白云
  106. 小甜瓜自然 小甜瓜自然
  107. 柠檬专注 柠檬专注
  108. 金针菇稳重 金针菇稳重
  109. 多情打寒风 多情打寒风
  110. 淡定踢网络 淡定踢网络
  111. 裙子单纯 裙子单纯
  112. 饱满与咖啡 饱满与咖啡
  113. 白羊健忘 白羊健忘
  114. 鲜花动人 鲜花动人
  115. 裙子踏实 裙子踏实
  116. 裙子踏实 裙子踏实
  117. 魁梧扯夏天 魁梧扯夏天
  118. 香蕉的硬币 香蕉的硬币

  119. 鬼谷之魔 鬼谷之魔
  120. 柠檬专注 柠檬专注
  121. 小熊猫瘦瘦 小熊猫瘦瘦
  122. 小熊猫瘦瘦 小熊猫瘦瘦
  123. 火龙果笨笨 火龙果笨笨
  124. 爱吃三丫的铜锣烧 爱吃三丫的铜锣烧
  125. 忐忑闻仙人掌 忐忑闻仙人掌
  126. 勤奋向乐曲 勤奋向乐曲
  127. 悦耳给楼房 悦耳给楼房
  128. 裙子单纯 裙子单纯
  129. 超人 超人
  130. honsonlin honsonlin
  131. 魁梧扯夏天 魁梧扯夏天
  132. 剑心 剑心
  133. 魁梧扯夏天 魁梧扯夏天
  134. 剑心 剑心
  135. 剑心 剑心
  136. 剑心 剑心
  137. 魁梧扯夏天 魁梧扯夏天
  138. 和谐演变狗 和谐演变狗
  139. 愤怒笑野狼 愤怒笑野狼
  140. 裙子舒适 裙子舒适
  141. 传统保卫 传统保卫
  142. 剑心 剑心
  143. 魁梧扯夏天 魁梧扯夏天
  144. 魁梧扯夏天 魁梧扯夏天
  145. 天空多情 天空多情
  146. 黑夜着急 黑夜着急
  147. 剑心 剑心
  148. 忧虑与康乃馨 忧虑与康乃馨
  149. 安静和手套 安静和手套
  150. 冬瓜小巧 冬瓜小巧
  151. 健忘宝贝 健忘宝贝
  152. 剑心 剑心
  153. 鸵鸟年轻 鸵鸟年轻
  154. 铅笔甜蜜 铅笔甜蜜
  155. 江南糖白虎 江南糖白虎
  156. 甜甜笑美女 甜甜笑美女
  157. 秋天难过 秋天难过
  158. 剑心 剑心

  159. 裙子单纯 裙子单纯
  160. 江南糖白虎 江南糖白虎
  161. 剑心 剑心
  162. 受伤用外套 受伤用外套
  163. 寒风怕孤单 寒风怕孤单
  164. 小熊猫瘦瘦 小熊猫瘦瘦
  165. 寒风怕孤单 寒风怕孤单
  166. 荷花平常 荷花平常
  167. 成就与龙猫 成就与龙猫
  168. 受伤用外套 受伤用外套
  169. 剑心 剑心
  170. 愤怒笑野狼 愤怒笑野狼
  171. 篮球秀丽 篮球秀丽
  172. 小蝴蝶成就 小蝴蝶成就
  173. 刻苦就微笑 刻苦就微笑
  174. 裙子单纯 裙子单纯
  175. 巨人纯情 巨人纯情
  176. 裙子单纯 裙子单纯
  177. 土豪 土豪
  178. 精明笑奇迹 精明笑奇迹
  179. 白云繁荣 白云繁荣
  180. 白云繁荣 白云繁荣
  181. 文艺的冬瓜 文艺的冬瓜
  182. 聪慧方花生 聪慧方花生
  183. 聪慧方花生 聪慧方花生
  184. 剑心 剑心
  185. 剑心 剑心
  186. 苗条专注 苗条专注
  187. 天宇清风 天宇清风
  188. boyboyjack boyboyjack
  189. 天宇清风 天宇清风
  190. 剑心 剑心
  191. 天宇清风 天宇清风
  192. 聪慧方花生 聪慧方花生
  193. 今夜无雨 今夜无雨
  194. 剑心 剑心
  195. jevence12 jevence12
  196. 煎蛋舒心 煎蛋舒心
  197. 剑心 剑心
  198. 煎蛋舒心 煎蛋舒心
  199. 仙人掌谦让 仙人掌谦让
  200. 愤怒笑野狼 愤怒笑野狼
  201. 鹰扬九天 鹰扬九天
  202. 聪慧方花生 聪慧方花生
  203. 干净打糖豆 干净打糖豆
  204. 简单踢树叶 简单踢树叶
  205. icolor icolor
  206. 安详等于唇膏 安详等于唇膏
  207. 小蝴蝶谨慎 小蝴蝶谨慎
  208. 剑心 剑心
  209. 仙人掌谦让 仙人掌谦让
  210. 剑心 剑心
  211. 要减肥爱紫菜 要减肥爱紫菜
  212. 剑心 剑心
  213. 剑心 剑心
  214. 要减肥爱紫菜 要减肥爱紫菜
  215. 大树机灵 大树机灵
  216. 大象寒冷 大象寒冷
  217. 聪慧方花生 聪慧方花生
  218. 聪慧方花生 聪慧方花生
  219. 聪慧方花生 聪慧方花生
  220. 聪慧方花生 聪慧方花生
  221. 剑心 剑心
  222. 刺猬优美 刺猬优美
  223. 剑心 剑心
  224. 甜蜜身影 甜蜜身影
  225. 剑心 剑心
  226. 寒风洁净 寒风洁净
  227. 剑心 剑心
  228. 丰富保卫摩托 丰富保卫摩托
  229. 机灵给芝麻 机灵给芝麻
  230. 要减肥爱紫菜 要减肥爱紫菜
  231. 电脑还单身 电脑还单身
  232. 聪慧方花生 聪慧方花生
  233. 月光俊逸 月光俊逸
  234. 月光俊逸 月光俊逸
  235. 剑心 剑心
  236. 剑心 剑心
  237. 河马甜美 河马甜美

    这个哪里不对 Traceback (most recent call last): File "F:\facefusion3.0.1\jian27\Lib\site-packages\gradio\queueing.py", line 536, in process_events response = await route_utils.call_process_api( ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "F:\facefusion3.0.1\jian27\Lib\site-packages\gradio\route_utils.py", line 322, in call_process_api output = await app.get_blocks().process_api( ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "F:\facefusion3.0.1\jian27\Lib\site-packages\gradio\blocks.py", line 1935, in process_api result = await self.call_function( ^^^^^^^^^^^^^^^^^^^^^^^^^ File "F:\facefusion3.0.1\jian27\Lib\site-packages\gradio\blocks.py", line 1520, in call_function prediction = await anyio.to_thread.run_sync( # type: ignore ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "F:\facefusion3.0.1\jian27\Lib\site-packages\anyio\to_thread.py", line 56, in run_sync return await get_async_backend().run_sync_in_worker_thread( ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "F:\facefusion3.0.1\jian27\Lib\site-packages\anyio\_backends\_asyncio.py", line 2405, in run_sync_in_worker_thread return await future ^^^^^^^^^^^^ File "F:\facefusion3.0.1\jian27\Lib\site-packages\anyio\_backends\_asyncio.py", line 914, in run result = context.run(func, *args) ^^^^^^^^^^^^^^^^^^^^^^^^ File "F:\facefusion3.0.1\jian27\Lib\site-packages\gradio\utils.py", line 826, in wrapper response = f(*args, **kwargs) ^^^^^^^^^^^^^^^^^^ File "F:\facefusion3.0.1\facefusion\uis\components\instant_runner.py", line 82, in run create_and_run_job(step_args) File "F:\facefusion3.0.1\facefusion\uis\components\instant_runner.py", line 97, in create_and_run_job return job_manager.create_job(job_id) and job_manager.add_step(job_id, step_args) and job_manager.submit_job(job_id) and job_runner.run_job(job_id, process_step) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "F:\facefusion3.0.1\facefusion\jobs\job_runner.py", line 11, in run_job if run_steps(job_id, process_step) and finalize_steps(job_id): ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "F:\facefusion3.0.1\facefusion\jobs\job_runner.py", line 66, in run_steps if not run_step(job_id, index, step, process_step): ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "F:\facefusion3.0.1\facefusion\jobs\job_runner.py", line 52, in run_step if job_manager.set_step_status(job_id, step_index, 'started') and process_step(job_id, step_index, step_args): ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "F:\facefusion3.0.1\facefusion\core.py", line 289, in process_step if common_pre_check() and processors_pre_check(): ^^^^^^^^^^^^^^^^^^^^^^ File "F:\facefusion3.0.1\facefusion\core.py", line 111, in processors_pre_check if not processor_module.pre_check(): ^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "F:\facefusion3.0.1\facefusion\processors\modules\age_modifier.py", line 88, in pre_check return conditional_download_hashes(download_directory_path, model_hashes) and conditional_download_sources(download_directory_path, model_sources) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "F:\facefusion3.0.1\facefusion\download.py", line 87, in conditional_download_sources _, invalid_source_paths = validate_source_paths(source_paths) ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ File "F:\facefusion3.0.1\facefusion\download.py", line 127, in validate_source_paths if validate_hash(source_path): ^^^^^^^^^^^^^^^^^^^^^^^^^^ File "F:\facefusion3.0.1\facefusion\hash_helper.py", line 20, in validate_hash validate_content = validate_file.read() ^^^^^^^^^^^^^^^^^^^^ MemoryError

  238. 玩命等于可乐 玩命等于可乐
  239. 糊涂就砖头 糊涂就砖头
  240. 夕阳傻傻 夕阳傻傻
  241. 现代给电脑 现代给电脑
  242. 末日后飞升成仙的男人 末日后飞升成仙的男人
  243. 剑心 剑心
  244. 冒险王18 冒险王18
  245. 粗犷和汉堡 粗犷和汉堡
  246. 菠萝失眠 菠萝失眠
  247. 菠萝失眠 菠萝失眠
  248. 老实打茉莉 老实打茉莉
  249. 动人用往事 动人用往事
  250. 冷艳保卫荔枝 冷艳保卫荔枝
  251. 苗条合适 苗条合适
  252. 剑心 剑心
  253. 剑心 剑心
  254. 剑心 剑心
  255. 飞鸟热情 飞鸟热情
  256. 棒棒糖热情 棒棒糖热情
  257. icolor icolor
  258. 文艺的冬瓜 文艺的冬瓜
  259. 文艺的冬瓜 文艺的冬瓜
  260. 文艺的冬瓜 文艺的冬瓜
  261. 文艺的冬瓜 文艺的冬瓜
  262. bj bj
  263. bj bj
  264. 剑心 剑心
  265. 剑心 剑心
  266. 如意笑枫叶 如意笑枫叶
  267. 落寞与铃铛 落寞与铃铛
  268. 斑马欣喜 斑马欣喜
  269. 剑心 剑心
  270. 黑裤单纯 黑裤单纯
  271. 高山虚心 高山虚心
  272. 战斗机重要 战斗机重要
  273. 光亮演变曲奇 光亮演变曲奇
  274. 战斗机重要 战斗机重要
  275. 战斗机重要 战斗机重要
  276. AuthorHonei AuthorHonei
  277. 剑心 剑心
  278. 剑心 剑心
  279. 月亮激昂 月亮激昂
  280. 早晨深情 早晨深情
  281. 剑心 剑心
  282. 龙猫干净 龙猫干净
  283. 月光俊逸 月光俊逸
  284. 早晨深情 早晨深情
  285. 早晨深情 早晨深情
  286. 剑心 剑心
  287. 棒球贤惠 棒球贤惠
  288. 月光俊逸 月光俊逸
  289. 剑心 剑心
  290. 月光俊逸 月光俊逸
  291. 独特笑期待 独特笑期待
  292. jmxbf jmxbf
  293. 剑心 剑心
  294. 刺猬优美 刺猬优美
  295. 大门兴奋 大门兴奋
  296. icolor icolor
  297. llj12612 llj12612
  298. llj12612 llj12612
  299. 摩托积极 摩托积极
  300. 13123 13123
  301. 帽子难过 帽子难过
  302. 齊魯 齊魯
  303. 聪慧方花生 聪慧方花生
  304. 王不流行 王不流行
  305. 歪比巴卜 歪比巴卜
  306. 歪比巴卜 歪比巴卜
  307. 悲凉向白云 悲凉向白云
  308. 月光俊逸 月光俊逸
  309. 鲤鱼与裙子 鲤鱼与裙子
  310. 剑心 剑心
  311. 苹果笑路人 苹果笑路人
  312. 机智打花瓣 机智打花瓣
  313. 剑心 剑心
  314. 宝贝着急 宝贝着急

    666

  315. 感动的香菇 感动的香菇
  316. 机灵保卫百褶裙 机灵保卫百褶裙
  317. 聪慧方花生 聪慧方花生
  318. 聪慧方花生 聪慧方花生
  319. 聪慧方花生 聪慧方花生
  320. 剑心 剑心
  321. 齊魯 齊魯
  322. 勤劳迎音响 勤劳迎音响
  323. 大树眯眯眼 大树眯眯眼
  324. 齊魯 齊魯
  325. 蛋挞清秀 蛋挞清秀
  326. 愉快闻口红 愉快闻口红
  327. 剑心 剑心
  328. 剑心 剑心
  329. 烂漫笑小熊猫 烂漫笑小熊猫
  330. 月光俊逸 月光俊逸
  331. 大力爱樱桃 大力爱樱桃
  332. 山水糟糕 山水糟糕
  333. 从容迎白开水 从容迎白开水
  334. 糟糕与火 糟糕与火
  335. 剑心 剑心
  336. 戒指超帅 戒指超帅
  337. 灰狼谨慎 灰狼谨慎
  338. 大船聪慧 大船聪慧
  339. 聪慧方花生 聪慧方花生
  340. 汉堡贪玩 汉堡贪玩

    666

  341. 红牛野性 红牛野性
  342. 剑心 剑心
  343. 默默和龙猫 默默和龙猫
  344. 兴奋与哈密瓜 兴奋与哈密瓜
  345. 剑心 剑心
  346. 剑心 剑心
  347. 聪慧方花生 聪慧方花生
  348. 大叔啊 大叔啊
  349. 故意爱背包 故意爱背包
  350. 故意爱背包 故意爱背包
  351. 雪白打枫叶 雪白打枫叶
  352. 黄豆复杂 黄豆复杂
  353. 专一心情 专一心情
  354. 剑心 剑心
  355. 雨耍酷 雨耍酷
  356. 苹果笑路人 苹果笑路人
  357. 蜜粉优秀 蜜粉优秀

    666

  358. 蜜粉优秀 蜜粉优秀

    666

  359. 摩托优美 摩托优美
  360. 剑心 剑心
  361. 秋天难过 秋天难过
  362. 早晨眯眯眼 早晨眯眯眼
  363. 大神陶醉 大神陶醉

    6

  364. 美满闻红酒 美满闻红酒
  365. 剑心 剑心
  366. 醉熏打小兔子 醉熏打小兔子
  367. 早晨眯眯眼 早晨眯眯眼

    To create a public link, set `share=True` in `launch()`. save path: ./output_long/debug/720-1bi1 2024-10-25 16:56:08.5048404 [E:onnxruntime:Default, provider_bridge_ort.cc:1744 onnxruntime::TryGetProviderInfo_CUDA] C:\a\_work\1\s\onnxruntime\core\session\provider_bridge_ort.cc:1426 onnxruntime::ProviderLibrary::Get [ONNXRuntimeError] : 1 : FAIL : LoadLibrary failed with error 126 "" when trying to load "L:\ai-ruanjian-2023-09\hallo2-2024-10-25\hallo2\python\lib\site-packages\onnxruntime\capi\onnxruntime_providers_cuda.dll" *************** EP Error *************** EP Error C:\a\_work\1\s\onnxruntime\python\onnxruntime_pybind_state.cc:866 onnxruntime::python::CreateExecutionProviderInstance CUDA_PATH is set but CUDA wasnt able to be loaded. Please install the correct version of CUDA andcuDNN as mentioned in the GPU requirements page (https://onnxruntime.ai/docs/execution-providers/CUDA-ExecutionProvider.html#requirements), make sure they're in the PATH, and that your GPU is supported. when using ['CUDAExecutionProvider', 'CPUExecutionProvider'] Falling back to ['CUDAExecutionProvider', 'CPUExecutionProvider'] and retrying. **************************************** 2024-10-25 16:56:08.7958579 [E:onnxruntime:Default, provider_bridge_ort.cc:1744 onnxruntime::TryGetProviderInfo_CUDA] C:\a\_work\1\s\onnxruntime\core\session\provider_bridge_ort.cc:1426 onnxruntime::ProviderLibrary::Get [ONNXRuntimeError] : 1 : FAIL : LoadLibrary failed with error 126 "" when trying to load "L:\ai-ruanjian-2023-09\hallo2-2024-10-25\hallo2\python\lib\site-packages\onnxruntime\capi\onnxruntime_providers_cuda.dll" Traceback (most recent call last): File "L:\ai-ruanjian-2023-09\hallo2-2024-10-25\hallo2\python\lib\site-packages\onnxruntime\capi\onnxruntime_inference_collection.py", line 419, in __init__ self._create_inference_session(providers, provider_options, disabled_optimizers) File "L:\ai-ruanjian-2023-09\hallo2-2024-10-25\hallo2\python\lib\site-packages\onnxruntime\capi\onnxruntime_inference_collection.py", line 483, in _create_inference_session sess.initialize_session(providers, provider_options, disabled_optimizers) RuntimeError: C:\a\_work\1\s\onnxruntime\python\onnxruntime_pybind_state.cc:866 onnxruntime::python::CreateExecutionProviderInstance CUDA_PATH is set but CUDA wasnt able to be loaded. Please install the correct version of CUDA andcuDNN as mentioned in the GPU requirements page (https://onnxruntime.ai/docs/execution-providers/CUDA-ExecutionProvider.html#requirements), make sure they're in the PATH, and that your GPU is supported. The above exception was the direct cause of the following exception: Traceback (most recent call last): File "L:\ai-ruanjian-2023-09\hallo2-2024-10-25\hallo2\python\lib\site-packages\gradio\queueing.py", line 622, in process_events response = await route_utils.call_process_api( File "L:\ai-ruanjian-2023-09\hallo2-2024-10-25\hallo2\python\lib\site-packages\gradio\route_utils.py", line 323, in call_process_api output = await app.get_blocks().process_api( File "L:\ai-ruanjian-2023-09\hallo2-2024-10-25\hallo2\python\lib\site-packages\gradio\blocks.py", line 2014, in process_api result = await self.call_function( File "L:\ai-ruanjian-2023-09\hallo2-2024-10-25\hallo2\python\lib\site-packages\gradio\blocks.py", line 1567, in call_function prediction = await anyio.to_thread.run_sync( # type: ignore File "L:\ai-ruanjian-2023-09\hallo2-2024-10-25\hallo2\python\lib\site-packages\anyio\to_thread.py", line 56, in run_sync return await get_async_backend().run_sync_in_worker_thread( File "L:\ai-ruanjian-2023-09\hallo2-2024-10-25\hallo2\python\lib\site-packages\anyio\_backends\_asyncio.py", line 2441, in run_sync_in_worker_thread return await future File "L:\ai-ruanjian-2023-09\hallo2-2024-10-25\hallo2\python\lib\site-packages\anyio\_backends\_asyncio.py", line 943, in run result = context.run(func, *args) File "L:\ai-ruanjian-2023-09\hallo2-2024-10-25\hallo2\python\lib\site-packages\gradio\utils.py", line 846, in wrapper response = f(*args, **kwargs) File "L:\ai-ruanjian-2023-09\hallo2-2024-10-25\hallo2\python\lib\site-packages\gradio\utils.py", line 846, in wrapper response = f(*args, **kwargs) File "app.py", line 37, in app.predict File "L:\ai-ruanjian-2023-09\hallo2-2024-10-25\hallo2\scripts\inference_long.py", line 210, in inference_process with ImageProcessor(img_size, face_analysis_model_path) as image_processor: File "L:\ai-ruanjian-2023-09\hallo2-2024-10-25\hallo2\hallo\datasets\image_processor.py", line 100, in __init__ self.face_analysis = FaceAnalysis( File "L:\ai-ruanjian-2023-09\hallo2-2024-10-25\hallo2\python\lib\site-packages\insightface\app\face_analysis.py", line 31, in __init__ model = model_zoo.get_model(onnx_file, **kwargs) File "L:\ai-ruanjian-2023-09\hallo2-2024-10-25\hallo2\python\lib\site-packages\insightface\model_zoo\model_zoo.py", line 96, in get_model model = router.get_model(providers=providers, provider_options=provider_options) File "L:\ai-ruanjian-2023-09\hallo2-2024-10-25\hallo2\python\lib\site-packages\insightface\model_zoo\model_zoo.py", line 40, in get_model session = PickableInferenceSession(self.onnx_file, **kwargs) File "L:\ai-ruanjian-2023-09\hallo2-2024-10-25\hallo2\python\lib\site-packages\insightface\model_zoo\model_zoo.py", line 25, in __init__ super().__init__(model_path, **kwargs) File "L:\ai-ruanjian-2023-09\hallo2-2024-10-25\hallo2\python\lib\site-packages\onnxruntime\capi\onnxruntime_inference_collection.py", line 432, in __init__ raise fallback_error from e File "L:\ai-ruanjian-2023-09\hallo2-2024-10-25\hallo2\python\lib\site-packages\onnxruntime\capi\onnxruntime_inference_collection.py", line 427, in __init__ self._create_inference_session(self._fallback_providers, None) File "L:\ai-ruanjian-2023-09\hallo2-2024-10-25\hallo2\python\lib\site-packages\onnxruntime\capi\onnxruntime_inference_collection.py", line 483, in _create_inference_session sess.initialize_session(providers, provider_options, disabled_optimizers) RuntimeError: C:\a\_work\1\s\onnxruntime\python\onnxruntime_pybind_state.cc:866 onnxruntime::python::CreateExecutionProviderInstance CUDA_PATH is set but CUDA wasnt able to be loaded. Please install the correct version of CUDA andcuDNN as mentioned in the GPU requirements page (https://onnxruntime.ai/docs/execution-providers/CUDA-ExecutionProvider.html#requirements), make sure they're in the PATH, and that your GPU is supported.

  368. 芝麻内向 芝麻内向
  369. 芝麻内向 芝麻内向
  370. 剑心 剑心
  371. 手机慈祥 手机慈祥
  372. 剑心 剑心
  373. 和谐给苗条 和谐给苗条

    WARNING[XFORMERS]: xFormers can't load C++/CUDA extensions. xFormers was built for: PyTorch 2.2.2+cu121 with CUDA 1201 (you have 2.2.2+cu118) Python 3.10.11 (you have 3.10.15) Please reinstall xformers (see https://github.com/facebookresearch/xformers#installing-xformers) Memory-efficient attention, SwiGLU, sparse and more won't be available. Set XFORMERS_MORE_DETAILS=1 for more details D:\BaiduNetdiskDownload\hallo2\jian27\lib\site-packages\pydub\utils.py:170: RuntimeWarning: Couldn't find ffmpeg or avconv - defaulting to ffmpeg, but may not work warn("Couldn't find ffmpeg or avconv - defaulting to ffmpeg, but may not work", RuntimeWarning) save path: ./output/1 Applied providers: ['CUDAExecutionProvider', 'CPUExecutionProvider'], with options: {'CUDAExecutionProvider': {'device_id': '0', 'has_user_compute_stream': '0', 'cudnn_conv1d_pad_to_nc1d': '0', 'user_compute_stream': '0', 'gpu_external_alloc': '0', 'gpu_mem_limit': '18446744073709551615', 'enable_cuda_graph': '0', 'gpu_external_free': '0', 'gpu_external_empty_cache': '0', 'arena_extend_strategy': 'kNextPowerOfTwo', 'cudnn_conv_algo_search': 'EXHAUSTIVE', 'do_copy_in_default_stream': '1', 'cudnn_conv_use_max_workspace': '1', 'tunable_op_enable': '0', 'tunable_op_tuning_enable': '0', 'tunable_op_max_tuning_duration_ms': '0', 'enable_skip_layer_norm_strict_mode': '0', 'prefer_nhwc': '0', 'use_ep_level_unified_stream': '0', 'use_tf32': '1'}, 'CPUExecutionProvider': {}} find model: ./pretrained_models/face_analysis\models\1k3d68.onnx landmark_3d_68 ['None', 3, 192, 192] 0.0 1.0 Applied providers: ['CUDAExecutionProvider', 'CPUExecutionProvider'], with options: {'CUDAExecutionProvider': {'device_id': '0', 'has_user_compute_stream': '0', 'cudnn_conv1d_pad_to_nc1d': '0', 'user_compute_stream': '0', 'gpu_external_alloc': '0', 'gpu_mem_limit': '18446744073709551615', 'enable_cuda_graph': '0', 'gpu_external_free': '0', 'gpu_external_empty_cache': '0', 'arena_extend_strategy': 'kNextPowerOfTwo', 'cudnn_conv_algo_search': 'EXHAUSTIVE', 'do_copy_in_default_stream': '1', 'cudnn_conv_use_max_workspace': '1', 'tunable_op_enable': '0', 'tunable_op_tuning_enable': '0', 'tunable_op_max_tuning_duration_ms': '0', 'enable_skip_layer_norm_strict_mode': '0', 'prefer_nhwc': '0', 'use_ep_level_unified_stream': '0', 'use_tf32': '1'}, 'CPUExecutionProvider': {}} find model: ./pretrained_models/face_analysis\models\2d106det.onnx landmark_2d_106 ['None', 3, 192, 192] 0.0 1.0 Applied providers: ['CUDAExecutionProvider', 'CPUExecutionProvider'], with options: {'CUDAExecutionProvider': {'device_id': '0', 'has_user_compute_stream': '0', 'cudnn_conv1d_pad_to_nc1d': '0', 'user_compute_stream': '0', 'gpu_external_alloc': '0', 'gpu_mem_limit': '18446744073709551615', 'enable_cuda_graph': '0', 'gpu_external_free': '0', 'gpu_external_empty_cache': '0', 'arena_extend_strategy': 'kNextPowerOfTwo', 'cudnn_conv_algo_search': 'EXHAUSTIVE', 'do_copy_in_default_stream': '1', 'cudnn_conv_use_max_workspace': '1', 'tunable_op_enable': '0', 'tunable_op_tuning_enable': '0', 'tunable_op_max_tuning_duration_ms': '0', 'enable_skip_layer_norm_strict_mode': '0', 'prefer_nhwc': '0', 'use_ep_level_unified_stream': '0', 'use_tf32': '1'}, 'CPUExecutionProvider': {}} find model: ./pretrained_models/face_analysis\models\genderage.onnx genderage ['None', 3, 96, 96] 0.0 1.0 Applied providers: ['CUDAExecutionProvider', 'CPUExecutionProvider'], with options: {'CUDAExecutionProvider': {'device_id': '0', 'has_user_compute_stream': '0', 'cudnn_conv1d_pad_to_nc1d': '0', 'user_compute_stream': '0', 'gpu_external_alloc': '0', 'gpu_mem_limit': '18446744073709551615', 'enable_cuda_graph': '0', 'gpu_external_free': '0', 'gpu_external_empty_cache': '0', 'arena_extend_strategy': 'kNextPowerOfTwo', 'cudnn_conv_algo_search': 'EXHAUSTIVE', 'do_copy_in_default_stream': '1', 'cudnn_conv_use_max_workspace': '1', 'tunable_op_enable': '0', 'tunable_op_tuning_enable': '0', 'tunable_op_max_tuning_duration_ms': '0', 'enable_skip_layer_norm_strict_mode': '0', 'prefer_nhwc': '0', 'use_ep_level_unified_stream': '0', 'use_tf32': '1'}, 'CPUExecutionProvider': {}} find model: ./pretrained_models/face_analysis\models\glintr100.onnx recognition ['None', 3, 112, 112] 127.5 127.5 Applied providers: ['CUDAExecutionProvider', 'CPUExecutionProvider'], with options: {'CUDAExecutionProvider': {'device_id': '0', 'has_user_compute_stream': '0', 'cudnn_conv1d_pad_to_nc1d': '0', 'user_compute_stream': '0', 'gpu_external_alloc': '0', 'gpu_mem_limit': '18446744073709551615', 'enable_cuda_graph': '0', 'gpu_external_free': '0', 'gpu_external_empty_cache': '0', 'arena_extend_strategy': 'kNextPowerOfTwo', 'cudnn_conv_algo_search': 'EXHAUSTIVE', 'do_copy_in_default_stream': '1', 'cudnn_conv_use_max_workspace': '1', 'tunable_op_enable': '0', 'tunable_op_tuning_enable': '0', 'tunable_op_max_tuning_duration_ms': '0', 'enable_skip_layer_norm_strict_mode': '0', 'prefer_nhwc': '0', 'use_ep_level_unified_stream': '0', 'use_tf32': '1'}, 'CPUExecutionProvider': {}} find model: ./pretrained_models/face_analysis\models\scrfd_10g_bnkps.onnx detection [1, 3, '?', '?'] 127.5 128.0 set det-size: (640, 640) WARNING: All log messages before absl::InitializeLog() is called are written to STDERR W0000 00:00:1729764998.540941 34172 face_landmarker_graph.cc:174] Sets FaceBlendshapesGraph acceleration to xnnpack by default. INFO: Created TensorFlow Lite XNNPACK delegate for CPU. W0000 00:00:1729764998.554655 32040 inference_feedback_manager.cc:114] Feedback manager requires a model with a single signature inference. Disabling support for feedback tensors. W0000 00:00:1729764998.562839 19228 inference_feedback_manager.cc:114] Feedback manager requires a model with a single signature inference. Disabling support for feedback tensors. Processed and saved: ./output/1\1_sep_background.png Processed and saved: ./output/1\1_sep_face.png Some weights of Wav2VecModel were not initialized from the model checkpoint at ./pretrained_models/wav2vec/wav2vec2-base-960h and are newly initialized: ['wav2vec2.encoder.pos_conv_embed.conv.parametrizations.weight.original0', 'wav2vec2.encoder.pos_conv_embed.conv.parametrizations.weight.original1', 'wav2vec2.masked_spec_embed'] You should probably TRAIN this model on a down-stream task to be able to use it for predictions and inference. 2024-10-24 18:16:38,957 - INFO - separator - Separator version 0.17.2 instantiating with output_dir: ./output/1\audio_preprocess, output_format: WAV 2024-10-24 18:16:38,958 - INFO - separator - Operating System: Windows 10.0.19045 2024-10-24 18:16:38,959 - INFO - separator - System: Windows Node: DESKTOP-BNJA2AM Release: 10 Machine: AMD64 Proc: AMD64 Family 23 Model 113 Stepping 0, AuthenticAMD 2024-10-24 18:16:38,959 - INFO - separator - Python Version: 3.10.15 2024-10-24 18:16:38,959 - INFO - separator - PyTorch Version: 2.2.2+cu118 2024-10-24 18:16:38,961 - ERROR - separator - FFmpeg is not installed. Please install FFmpeg to use this package. Traceback (most recent call last): File "D:\BaiduNetdiskDownload\hallo2\scripts\inference_long.py", line 508, in <module> save_path = inference_process(command_line_args) File "D:\BaiduNetdiskDownload\hallo2\scripts\inference_long.py", line 235, in inference_process audio_processor = AudioProcessor( File "D:\BaiduNetdiskDownload\hallo2\hallo\datasets\audio_processor.py", line 61, in __init__ self.audio_separator = Separator( File "D:\BaiduNetdiskDownload\hallo2\jian27\lib\site-packages\audio_separator\separator\separator.py", line 140, in __init__ self.setup_accelerated_inferencing_device() File "D:\BaiduNetdiskDownload\hallo2\jian27\lib\site-packages\audio_separator\separator\separator.py", line 147, in setup_accelerated_inferencing_device self.check_ffmpeg_installed() File "D:\BaiduNetdiskDownload\hallo2\jian27\lib\site-packages\audio_separator\separator\separator.py", line 173, in check_ffmpeg_installed ffmpeg_version_output = subprocess.check_output(["ffmpeg", "-version"], text=True) File "D:\BaiduNetdiskDownload\hallo2\jian27\lib\subprocess.py", line 421, in check_output return run(*popenargs, stdout=PIPE, timeout=timeout, check=True, File "D:\BaiduNetdiskDownload\hallo2\jian27\lib\subprocess.py", line 503, in run with Popen(*popenargs, **kwargs) as process: File "D:\BaiduNetdiskDownload\hallo2\jian27\lib\subprocess.py", line 971, in __init__ self._execute_child(args, executable, preexec_fn, close_fds, File "D:\BaiduNetdiskDownload\hallo2\jian27\lib\subprocess.py", line 1456, in _execute_child hp, ht, pid, tid = _winapi.CreateProcess(executable, args, FileNotFoundError: [WinError 2] 系统找不到指定的文件。 Press any key to continue . . . 这是啥情况啊

  374. 剑心 剑心
  375. 手机慈祥 手机慈祥
  376. 纸鹤苹果 纸鹤苹果
  377. 舞蹈幽默 舞蹈幽默
  378. 小兔子心灵美 小兔子心灵美
  379. 玉米微笑 玉米微笑
  380. 兴奋向水蜜桃 兴奋向水蜜桃
  381. 剑心 剑心
  382. 阿飞 阿飞
  383. 剑心 剑心
  384. 荔枝活泼 荔枝活泼

    666

  385. 雨彪壮 雨彪壮

    666

  386. 土豪扯中心 土豪扯中心
  387. 小蚂蚁笨笨 小蚂蚁笨笨

    666

  388. 耳机单纯 耳机单纯

    666

  389. 聪慧方花生 聪慧方花生
  390. 欣喜笑紫菜 欣喜笑紫菜
  391. 剑心 剑心
  392. 开放演变大叔 开放演变大叔
  393. 剑心 剑心
  394. 剑心 剑心
  395. 自行车文艺 自行车文艺
  396. 高兴踢茉莉 高兴踢茉莉

    老大,这是什么情况 save path: ./output/1 Applied providers: ['CUDAExecutionProvider', 'CPUExecutionProvider'], with options: {'CUDAExecutionProvider': {'device_id': '0', 'has_user_compute_stream': '0', 'cudnn_conv1d_pad_to_nc1d': '0', 'user_compute_stream': '0', 'gpu_external_alloc': '0', 'gpu_mem_limit': '18446744073709551615', 'enable_cuda_graph': '0', 'gpu_external_free': '0', 'gpu_external_empty_cache': '0', 'arena_extend_strategy': 'kNextPowerOfTwo', 'cudnn_conv_algo_search': 'EXHAUSTIVE', 'do_copy_in_default_stream': '1', 'cudnn_conv_use_max_workspace': '1', 'tunable_op_enable': '0', 'tunable_op_tuning_enable': '0', 'tunable_op_max_tuning_duration_ms': '0', 'enable_skip_layer_norm_strict_mode': '0', 'prefer_nhwc': '0', 'use_ep_level_unified_stream': '0', 'use_tf32': '1'}, 'CPUExecutionProvider': {}} find model: ./pretrained_models/face_analysis\models\1k3d68.onnx landmark_3d_68 ['None', 3, 192, 192] 0.0 1.0 Applied providers: ['CUDAExecutionProvider', 'CPUExecutionProvider'], with options: {'CUDAExecutionProvider': {'device_id': '0', 'has_user_compute_stream': '0', 'cudnn_conv1d_pad_to_nc1d': '0', 'user_compute_stream': '0', 'gpu_external_alloc': '0', 'gpu_mem_limit': '18446744073709551615', 'enable_cuda_graph': '0', 'gpu_external_free': '0', 'gpu_external_empty_cache': '0', 'arena_extend_strategy': 'kNextPowerOfTwo', 'cudnn_conv_algo_search': 'EXHAUSTIVE', 'do_copy_in_default_stream': '1', 'cudnn_conv_use_max_workspace': '1', 'tunable_op_enable': '0', 'tunable_op_tuning_enable': '0', 'tunable_op_max_tuning_duration_ms': '0', 'enable_skip_layer_norm_strict_mode': '0', 'prefer_nhwc': '0', 'use_ep_level_unified_stream': '0', 'use_tf32': '1'}, 'CPUExecutionProvider': {}} find model: ./pretrained_models/face_analysis\models\2d106det.onnx landmark_2d_106 ['None', 3, 192, 192] 0.0 1.0 Applied providers: ['CUDAExecutionProvider', 'CPUExecutionProvider'], with options: {'CUDAExecutionProvider': {'device_id': '0', 'has_user_compute_stream': '0', 'cudnn_conv1d_pad_to_nc1d': '0', 'user_compute_stream': '0', 'gpu_external_alloc': '0', 'gpu_mem_limit': '18446744073709551615', 'enable_cuda_graph': '0', 'gpu_external_free': '0', 'gpu_external_empty_cache': '0', 'arena_extend_strategy': 'kNextPowerOfTwo', 'cudnn_conv_algo_search': 'EXHAUSTIVE', 'do_copy_in_default_stream': '1', 'cudnn_conv_use_max_workspace': '1', 'tunable_op_enable': '0', 'tunable_op_tuning_enable': '0', 'tunable_op_max_tuning_duration_ms': '0', 'enable_skip_layer_norm_strict_mode': '0', 'prefer_nhwc': '0', 'use_ep_level_unified_stream': '0', 'use_tf32': '1'}, 'CPUExecutionProvider': {}} find model: ./pretrained_models/face_analysis\models\genderage.onnx genderage ['None', 3, 96, 96] 0.0 1.0 Applied providers: ['CUDAExecutionProvider', 'CPUExecutionProvider'], with options: {'CUDAExecutionProvider': {'device_id': '0', 'has_user_compute_stream': '0', 'cudnn_conv1d_pad_to_nc1d': '0', 'user_compute_stream': '0', 'gpu_external_alloc': '0', 'gpu_mem_limit': '18446744073709551615', 'enable_cuda_graph': '0', 'gpu_external_free': '0', 'gpu_external_empty_cache': '0', 'arena_extend_strategy': 'kNextPowerOfTwo', 'cudnn_conv_algo_search': 'EXHAUSTIVE', 'do_copy_in_default_stream': '1', 'cudnn_conv_use_max_workspace': '1', 'tunable_op_enable': '0', 'tunable_op_tuning_enable': '0', 'tunable_op_max_tuning_duration_ms': '0', 'enable_skip_layer_norm_strict_mode': '0', 'prefer_nhwc': '0', 'use_ep_level_unified_stream': '0', 'use_tf32': '1'}, 'CPUExecutionProvider': {}} find model: ./pretrained_models/face_analysis\models\glintr100.onnx recognition ['None', 3, 112, 112] 127.5 127.5 Applied providers: ['CUDAExecutionProvider', 'CPUExecutionProvider'], with options: {'CUDAExecutionProvider': {'device_id': '0', 'has_user_compute_stream': '0', 'cudnn_conv1d_pad_to_nc1d': '0', 'user_compute_stream': '0', 'gpu_external_alloc': '0', 'gpu_mem_limit': '18446744073709551615', 'enable_cuda_graph': '0', 'gpu_external_free': '0', 'gpu_external_empty_cache': '0', 'arena_extend_strategy': 'kNextPowerOfTwo', 'cudnn_conv_algo_search': 'EXHAUSTIVE', 'do_copy_in_default_stream': '1', 'cudnn_conv_use_max_workspace': '1', 'tunable_op_enable': '0', 'tunable_op_tuning_enable': '0', 'tunable_op_max_tuning_duration_ms': '0', 'enable_skip_layer_norm_strict_mode': '0', 'prefer_nhwc': '0', 'use_ep_level_unified_stream': '0', 'use_tf32': '1'}, 'CPUExecutionProvider': {}} find model: ./pretrained_models/face_analysis\models\scrfd_10g_bnkps.onnx detection [1, 3, '?', '?'] 127.5 128.0 set det-size: (640, 640) WARNING: All log messages before absl::InitializeLog() is called are written to STDERR W0000 00:00:1729437915.446654 9128 face_landmarker_graph.cc:174] Sets FaceBlendshapesGraph acceleration to xnnpack by default. INFO: Created TensorFlow Lite XNNPACK delegate for CPU. W0000 00:00:1729437915.454916 3604 inference_feedback_manager.cc:114] Feedback manager requires a model with a single signature inference. Disabling support for feedback tensors. W0000 00:00:1729437915.462255 4936 inference_feedback_manager.cc:114] Feedback manager requires a model with a single signature inference. Disabling support for feedback tensors. Processed and saved: ./output/1\1_sep_background.png Processed and saved: ./output/1\1_sep_face.png Some weights of Wav2VecModel were not initialized from the model checkpoint at ./pretrained_models/wav2vec/wav2vec2-base-960h and are newly initialized: ['wav2vec2.encoder.pos_conv_embed.conv.parametrizations.weight.original0', 'wav2vec2.encoder.pos_conv_embed.conv.parametrizations.weight.original1', 'wav2vec2.masked_spec_embed'] You should probably TRAIN this model on a down-stream task to be able to use it for predictions and inference. 2024-10-20 23:25:15,746 - INFO - separator - Separator version 0.17.2 instantiating with output_dir: ./output/1\audio_preprocess, output_format: WAV 2024-10-20 23:25:15,747 - INFO - separator - Operating System: Windows 10.0.19045 2024-10-20 23:25:15,747 - INFO - separator - System: Windows Node: DESKTOP-07OKCTL Release: 10 Machine: AMD64 Proc: Intel64 Family 6 Model 151 Stepping 2, GenuineIntel 2024-10-20 23:25:15,747 - INFO - separator - Python Version: 3.10.15 2024-10-20 23:25:15,748 - INFO - separator - PyTorch Version: 2.2.2+cu118 2024-10-20 23:25:15,748 - ERROR - separator - FFmpeg is not installed. Please install FFmpeg to use this package. Traceback (most recent call last): File "H:\gongju\11\scripts\inference_long.py", line 508, in <module> save_path = inference_process(command_line_args) File "H:\gongju\11\scripts\inference_long.py", line 235, in inference_process audio_processor = AudioProcessor( File "H:\gongju\11\hallo\datasets\audio_processor.py", line 61, in __init__ self.audio_separator = Separator( File "H:\gongju\11\jian27\lib\site-packages\audio_separator\separator\separator.py", line 140, in __init__ self.setup_accelerated_inferencing_device() File "H:\gongju\11\jian27\lib\site-packages\audio_separator\separator\separator.py", line 147, in setup_accelerated_inferencing_device self.check_ffmpeg_installed() File "H:\gongju\11\jian27\lib\site-packages\audio_separator\separator\separator.py", line 173, in check_ffmpeg_installed ffmpeg_version_output = subprocess.check_output(["ffmpeg", "-version"], text=True) File "H:\gongju\11\jian27\lib\subprocess.py", line 421, in check_output return run(*popenargs, stdout=PIPE, timeout=timeout, check=True, File "H:\gongju\11\jian27\lib\subprocess.py", line 503, in run with Popen(*popenargs, **kwargs) as process: File "H:\gongju\11\jian27\lib\subprocess.py", line 971, in __init__ self._execute_child(args, executable, preexec_fn, close_fds, File "H:\gongju\11\jian27\lib\subprocess.py", line 1456, in _execute_child hp, ht, pid, tid = _winapi.CreateProcess(executable, args, FileNotFoundError: [WinError 2] 系统找不到指定的文件。 Press any key to continue . . . 老大,这是什么情况?

  397. 芬达 芬达
  398. 母鸡傲娇 母鸡傲娇
  399. 跳跃的猫咪 跳跃的猫咪
  400. 欣慰的机器猫 欣慰的机器猫

    666

  401. 剑心 剑心
  402. 手链粗暴 手链粗暴
  403. 手链粗暴 手链粗暴
  404. 暴躁外套 暴躁外套
  405. 剑心 剑心
  406. 外向给曲奇 外向给曲奇
  407. 哑铃花痴 哑铃花痴
  408. 哑铃花痴 哑铃花痴
  409. 剑心 剑心
  410. 剑心 剑心
  411. 墨镜称心 墨镜称心
  412. 伶俐有黑猫 伶俐有黑猫
  413. 迅速雪糕 迅速雪糕
  414. 墨镜称心 墨镜称心
  415. 醉熏打小兔子 醉熏打小兔子
  416. 冒险王18 冒险王18
  417. 小懒猪可靠 小懒猪可靠

    666

  418. 摩托帅气 摩托帅气
  419. 人生暴躁 人生暴躁
  420. 剑心 剑心
  421. 枫叶热情 枫叶热情
  422. icolor icolor
  423. 胡萝卜结实 胡萝卜结实
  424. 剑心 剑心
  425. 超短裙忧郁 超短裙忧郁
  426. 鳗鱼演变百褶裙 鳗鱼演变百褶裙
  427. 糊涂闻芒果 糊涂闻芒果
  428. 聪慧方花生 聪慧方花生
  429. 小白菜着急 小白菜着急
  430. 聪慧方花生 聪慧方花生
  431. 小白菜着急 小白菜着急
  432. 哭泣笑自行车 哭泣笑自行车
  433. 睫毛聪明 睫毛聪明
  434. 雨酷炫 雨酷炫
  435. 热心与小兔子 热心与小兔子
  436. 无语与红酒 无语与红酒
  437. 无语与红酒 无语与红酒
  438. heibao1999 heibao1999
  439. 安静保卫小白菜 安静保卫小白菜
  440. silentfox silentfox
  441. 大象飘逸 大象飘逸
  442. 刺猬风趣 刺猬风趣
  443. 剑心 剑心
  444. 镜子耍酷 镜子耍酷
  445. 项链感性 项链感性

    666

  446. 酸奶腼腆 酸奶腼腆

    --------更多AI工具,开源免费软件 请前往 https://www.jian27.com-------- 请关注我的微信公众号 剑二十七 "HF_ENDPOINT: !HF_ENDPOINT!" "NO_PROXY: !no_proxy!" [main 2024-10-17T08:35:45.235Z] update#setState idle [15868:1017/163546.985:ERROR:ssl_client_socket_impl.cc(970)] handshake failed; returned -1, SSL error code 1, net_error -101 [15868:1017/163547.084:ERROR:ssl_client_socket_impl.cc(970)] handshake failed; returned -1, SSL error code 1, net_error -101 [15868:1017/163549.130:ERROR:ssl_client_socket_impl.cc(970)] handshake failed; returned -1, SSL error code 1, net_error -101 [15868:1017/163549.227:ERROR:ssl_client_socket_impl.cc(970)] handshake failed; returned -1, SSL error code 1, net_error -101 [main 2024-10-17T08:36:15.245Z] update#setState checking for updates [main 2024-10-17T08:36:15.255Z] update#setState downloading [main 2024-10-17T08:36:31.544Z] Extension host with pid 2464 exited with code: 0, signal: unknown. 2024-10-17 16:36:47.430 | INFO | __main__:<module>:523 - Loading Llama model... F:\fish-speech\fish_speech\models\text2semantic\llama.py:370: FutureWarning: You are using `torch.load` with `weights_only=False` (the current default value), which uses the default pickle module implicitly. It is possible to construct malicious pickle data which will execute arbitrary code during unpickling (See https://github.com/pytorch/pytorch/blob/main/SECURITY.md#untrusted-models for more details). In a future release, the default value for `weights_only` will be flipped to `True`. This limits the functions that could be executed during unpickling. Arbitrary objects will no longer be allowed to be loaded via this mode unless they are explicitly allowlisted by the user via `torch.serialization.add_safe_globals`. We recommend you start setting `weights_only=True` for any use case where you don't have full control of the loaded file. Please open an issue on GitHub for any issues related to this experimental feature. weights = torch.load( 2024-10-17 16:36:55.762 | INFO | tools.llama.generate:load_model:347 - Restored model from checkpoint 2024-10-17 16:36:55.762 | INFO | tools.llama.generate:load_model:351 - Using DualARTransformer 2024-10-17 16:36:55.762 | INFO | __main__:<module>:530 - Llama model loaded, loading VQ-GAN model... F:\fish-speech\jian27\lib\site-packages\vector_quantize_pytorch\vector_quantize_pytorch.py:457: FutureWarning: `torch.cuda.amp.autocast(args...)` is deprecated. Please use `torch.amp.autocast('cuda', args...)` instead. @autocast(enabled = False) F:\fish-speech\jian27\lib\site-packages\vector_quantize_pytorch\vector_quantize_pytorch.py:642: FutureWarning: `torch.cuda.amp.autocast(args...)` is deprecated. Please use `torch.amp.autocast('cuda', args...)` instead. @autocast(enabled = False) F:\fish-speech\jian27\lib\site-packages\vector_quantize_pytorch\finite_scalar_quantization.py:162: FutureWarning: `torch.cuda.amp.autocast(args...)` is deprecated. Please use `torch.amp.autocast('cuda', args...)` instead. @autocast(enabled = False) F:\fish-speech\tools\vqgan\inference.py:26: FutureWarning: You are using `torch.load` with `weights_only=False` (the current default value), which uses the default pickle module implicitly. It is possible to construct malicious pickle data which will execute arbitrary code during unpickling (See https://github.com/pytorch/pytorch/blob/main/SECURITY.md#untrusted-models for more details). In a future release, the default value for `weights_only` will be flipped to `True`. This limits the functions that could be executed during unpickling. Arbitrary objects will no longer be allowed to be loaded via this mode unless they are explicitly allowlisted by the user via `torch.serialization.add_safe_globals`. We recommend you start setting `weights_only=True` for any use case where you don't have full control of the loaded file. Please open an issue on GitHub for any issues related to this experimental feature. state_dict = torch.load( 2024-10-17 16:36:57.598 | INFO | tools.vqgan.inference:load_model:44 - Loaded model: <All keys matched successfully> 2024-10-17 16:36:57.598 | INFO | __main__:<module>:538 - Decoder model loaded, warming up... 2024-10-17 16:36:57.598 | INFO | tools.api:encode_reference:117 - No reference audio provided 2024-10-17 16:36:57.644 | INFO | tools.llama.generate:generate_long:432 - Encoded text: Hello, world! 2024-10-17 16:36:57.644 | INFO | tools.llama.generate:generate_long:450 - Generating sentence 1/1 of sample 1/1 F:\fish-speech\fish_speech\models\text2semantic\llama.py:655: UserWarning: 1Torch was not compiled with flash attention. (Triggered internally at C:\actions-runner\_work\pytorch\pytorch\builder\windows\pytorch\aten\src\ATen\native\transformers\cuda\sdp_utils.cpp:555.) y = F.scaled_dot_product_attention( 0%| | 0/4080 [00:00<?, ?it/s]F:\fish-speech\jian27\lib\contextlib.py:103: FutureWarning: `torch.backends.cuda.sdp_kernel()` is deprecated. In the future, this context manager will be removed. Please see `torch.nn.attention.sdpa_kernel()` for the new context manager, with updated signature. self.gen = func(*args, **kwds) 11%|████████▉ | 462/4080 [00:46<06:02, 9.99it/s] 2024-10-17 16:37:44.321 | INFO | tools.llama.generate:generate_long:505 - Generated 464 tokens in 46.68 seconds, 9.94 tokens/sec 2024-10-17 16:37:44.321 | INFO | tools.llama.generate:generate_long:508 - Bandwidth achieved: 4.87 GB/s 2024-10-17 16:37:44.321 | INFO | tools.llama.generate:generate_long:513 - GPU Memory used: 1.42 GB 2024-10-17 16:37:44.337 | INFO | tools.api:decode_vq_tokens:128 - VQ features: torch.Size([4, 463]) 2024-10-17 16:37:46.238 | INFO | __main__:<module>:555 - Warming up done, launching the web UI... Running on local URL: http://127.0.0.1:7860 To create a public link, set `share=True` in `launch()`. F:\fish-speech\jian27\lib\site-packages\gradio\analytics.py:106: UserWarning: IMPORTANT: You are using gradio version 4.44.0, however version 5.0.1 is available, please upgrade. -------- warnings.warn( funasr version: 1.1.12. Check update of funasr, and it would cost few times. You may disable it by set `disable_update=True` in AutoModel You are using the latest version of funasr-1.1.12 2024-10-17 16:38:36,320 - modelscope - WARNING - Using the master branch is fragile, please use it with caution! 2024-10-17 16:38:36,320 - modelscope - INFO - Use user-specified model revision: master F:\fish-speech\jian27\lib\site-packages\funasr\train_utils\load_pretrained_model.py:39: FutureWarning: You are using `torch.load` with `weights_only=False` (the current default value), which uses the default pickle module implicitly. It is possible to construct malicious pickle data which will execute arbitrary code during unpickling (See https://github.com/pytorch/pytorch/blob/main/SECURITY.md#untrusted-models for more details). In a future release, the default value for `weights_only` will be flipped to `True`. This limits the functions that could be executed during unpickling. Arbitrary objects will no longer be allowed to be loaded via this mode unless they are explicitly allowlisted by the user via `torch.serialization.add_safe_globals`. We recommend you start setting `weights_only=True` for any use case where you don't have full control of the loaded file. Please open an issue on GitHub for any issues related to this experimental feature. ori_state = torch.load(path, map_location=map_location) funasr version: 1.1.12. Check update of funasr, and it would cost few times. You may disable it by set `disable_update=True` in AutoModel You are using the latest version of funasr-1.1.12 2024-10-17 16:38:44,795 - modelscope - WARNING - Using the master branch is fragile, please use it with caution! 2024-10-17 16:38:44,796 - modelscope - INFO - Use user-specified model revision: master Traceback (most recent call last): File "F:\fish-speech\jian27\lib\site-packages\gradio\queueing.py", line 536, in process_events response = await route_utils.call_process_api( File "F:\fish-speech\jian27\lib\site-packages\gradio\route_utils.py", line 322, in call_process_api output = await app.get_blocks().process_api( File "F:\fish-speech\jian27\lib\site-packages\gradio\blocks.py", line 1935, in process_api result = await self.call_function( File "F:\fish-speech\jian27\lib\site-packages\gradio\blocks.py", line 1520, in call_function prediction = await anyio.to_thread.run_sync( # type: ignore File "F:\fish-speech\jian27\lib\site-packages\anyio\to_thread.py", line 56, in run_sync return await get_async_backend().run_sync_in_worker_thread( File "F:\fish-speech\jian27\lib\site-packages\anyio\_backends\_asyncio.py", line 2177, in run_sync_in_worker_thread return await future File "F:\fish-speech\jian27\lib\site-packages\anyio\_backends\_asyncio.py", line 859, in run result = context.run(func, *args) File "F:\fish-speech\jian27\lib\site-packages\gradio\utils.py", line 826, in wrapper response = f(*args, **kwargs) File "F:\fish-speech\tools\webui.py", line 264, in inference_wrapper result = inference_with_auto_rerank( File "F:\fish-speech\tools\webui.py", line 193, in inference_with_auto_rerank zh_model, en_model = load_model() File "F:\fish-speech\tools\auto_rerank.py", line 20, in load_model en_model = AutoModel( File "F:\fish-speech\jian27\lib\site-packages\funasr\auto\auto_model.py", line 125, in __init__ model, kwargs = self.build_model(**kwargs) File "F:\fish-speech\jian27\lib\site-packages\funasr\auto\auto_model.py", line 222, in build_model tokenizer = tokenizer_class(**tokenizer_conf) File "F:\fish-speech\jian27\lib\site-packages\funasr\tokenizer\sentencepiece_tokenizer.py", line 23, in __init__ self._build_sentence_piece_processor() File "F:\fish-speech\jian27\lib\site-packages\funasr\tokenizer\sentencepiece_tokenizer.py", line 32, in _build_sentence_piece_processor self.sp.load(self.bpemodel) File "F:\fish-speech\jian27\lib\site-packages\sentencepiece\__init__.py", line 961, in Load return self.LoadFromFile(model_file) File "F:\fish-speech\jian27\lib\site-packages\sentencepiece\__init__.py", line 316, in LoadFromFile return _sentencepiece.SentencePieceProcessor_LoadFromFile(self, arg) OSError: Not found: "C:\Users\皇甫\.cache\modelscope\hub\iic\speech_paraformer-large-vad-punc_asr_nat-en-16k-common-vocab10020\bpe.model": No such file or directory Error #2

  447. 剑心 剑心
  448. 剑心 剑心
  449. 俏皮打衬衫 俏皮打衬衫
  450. 无心爱冬日 无心爱冬日
  451. 导师危机 导师危机
  452. 秀丽笑鞋子 秀丽笑鞋子
  453. 冷风顺心 冷风顺心
  454. 聪慧给香烟 聪慧给香烟
  455. 称心就发夹 称心就发夹
  456. 水蜜桃单纯 水蜜桃单纯
  457. 黑米俏皮 黑米俏皮
  458. 绿草迅速 绿草迅速
  459. 剑心 剑心
  460. 剑心 剑心
  461. 冒险王18 冒险王18
  462. 紫色土豆 紫色土豆
  463. 野性的呼唤 野性的呼唤
  464. 野牛 野牛
  465. 失眠用玫瑰 失眠用玫瑰
  466. 老虎高兴 老虎高兴
  467. 玉米落后 玉米落后
  468. 蜡烛儒雅 蜡烛儒雅
  469. fstchsh fstchsh
  470. 小笼包无心 小笼包无心
  471. 小土豆秀丽 小土豆秀丽
  472. 剑心 剑心
  473. 麦片震动 麦片震动
  474. 合适有网络 合适有网络
  475. 合适有网络 合适有网络
  476. 糊涂闻芒果 糊涂闻芒果
  477. 潇洒保卫小虾米 潇洒保卫小虾米
  478. 小笼包危机 小笼包危机
  479. 强健和啤酒 强健和啤酒
  480. 强健和啤酒 强健和啤酒
  481. 剑心 剑心
  482. 剑心 剑心
  483. 歪比巴卜 歪比巴卜
  484. 歪比巴卜 歪比巴卜
  485. 会撒娇就红牛 会撒娇就红牛
  486. 会撒娇就红牛 会撒娇就红牛
  487. 电脑眯眯眼 电脑眯眯眼
  488. 电脑眯眯眼 电脑眯眯眼
  489. 剑心 剑心
  490. 剑心 剑心
  491. 会撒娇就红牛 会撒娇就红牛
  492. 无辜等于大炮 无辜等于大炮
  493. 彩色就奇迹 彩色就奇迹
  494. 往事细心 往事细心
  495. 剑心 剑心
  496. 墨镜机灵 墨镜机灵
  497. 墨镜机灵 墨镜机灵
  498. 墨镜机灵 墨镜机灵
  499. 墨镜机灵 墨镜机灵
  500. 剑心 剑心
  501. 水蜜桃单纯 水蜜桃单纯
  502. 闪闪向微笑 闪闪向微笑
  503. 灵巧演变火 灵巧演变火
  504. 黑猫感动 黑猫感动
  505. 迅速雪糕 迅速雪糕
  506. 聪慧方花生 聪慧方花生
  507. 聪慧方花生 聪慧方花生
  508. 聪慧方花生 聪慧方花生
  509. 聪慧方花生 聪慧方花生
  510. 剑心 剑心
  511. 冒险王18 冒险王18
  512. 雪碧靓丽 雪碧靓丽
  513. 剑心 剑心
  514. 指甲油机灵 指甲油机灵
  515. 剑心 剑心
  516. 指甲油机灵 指甲油机灵
  517. 指甲油机灵 指甲油机灵
  518. 机灵保卫百褶裙 机灵保卫百褶裙

相关推荐:

我要评论:

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。

评论已关闭