stablediffusion吧
关注: 21,503 贴子: 63,583

开源AI绘图框架

  • 目录:
  • 程序设计及人工智能
  • 2
    照着教程弄,没找到这个名字的模型呢
  • 0
    我的wd1.4标签器反推不出来提示词,怎么办
  • 8
    标题:混合AnimagineXL模型对3D及像素画艺术图像的表现,并比较不同采样器的画面呈现 AnimagineXL是用于AI绘图工具Stable Diffusion的一款模型,风格主要为日本ACGN的插画,也就是所谓的二次元画风。在之前的一篇文章《比较AnimagineXL模型对于游戏风格、游戏主机以及奇幻世界职业相关标签的表现》中,我比较了该模型对于不同的游戏风格(3D、像素画艺术、MMORPG等)以及游戏主机平台,还有就是奇幻职业等标签的反应及表现。在之前的比较中,我注意到了该
  • 0
    sd的模型都是在哪里下的?就是比较官方的网站。
    六微散人 10:00
  • 6
    使用前面是单张图片的处理没有问题,但是自动sam会报错(如图)为什么会出现这样,尝试百度,贴吧搜索都没有找到解决方法,连为什么都不知道
  • 13
    之前用1.5练了一个冷门的人物lora,最近听小马很神,也想着sdxl能解决一些1.5的毛病,比如分辨率低,出图画质不清爽,总有点糊糊的。手部问题很难解决,但是昨天准备用小马原版的v6作为底模搬迁原来的lora,第一个遇到的问题是秋叶启动器练sdxl只能用专家模式,很多参数需要设置,我直接网上超了一份,先出货,再微调,这个没问题,能练,第二个问题就是训练时间太长了,之前的训练集1.5需要12小时,sdxl直接3倍时间,达到36小时,瞬间给我干怂
    之江海盗 09:14
  • 5
    纯粹为了自己观赏为用途,在出图的时候总是会出现一些该出现特殊部位却没有出现,或者特殊部位出现在了它不该出现的地方,这种情况在文生图或者图生图的情况都出现过,亦或者是特殊部位是糊的,就像被PS工具里的液化工具拉了一下,或者是污点处理工具拉了一下那种感觉,以下是我的参数和模型#ai##ai绘画##stable diffusion#
  • 4
    运行30m左右 32g内存就顶不住了,显存11g,前两天还好今天一直崩,对比一下变量就是多装了几个Lora和模型,这个有影响吗😰
    死肥宅 07:34
  • 1
    没其他意思 我就想问下
    库洛bill 06:16
  • 6
    有没有大神讲一下详细点的方法
  • 12
    参数如下,过程中好好的,最后的时候脸就变异了。无论pony的动漫还是写实风格大模型都会出现花脸情况,有些lora就不会。水手服就正常,紧身衣就失败。(为啥不用ponydiffusionV6,因为太难设置提示词和参数了,不太会,弃了),问一下,怎么改进,谢谢
    日漫配角 01:36
  • 2
    如题,正常文生视频可以,但没法视频转绘,上传了视频跟没传一样,controlnet不起效,显示这个 *** Error running process: D:\sd-webui-aki-v4\extensions\sd-webui-controlnet\scripts\controlnet.pyTraceback (most recent call last):File "D:\sd-webui-aki-v4\modules\scripts.py", line 718, in processscript.process(p, *script_args)File "D:\sd-webui-aki-v4\extensions\sd-webui-controlnet\scripts\controlnet.py", line 1215, in processself.controlnet_hack(p)File "D:\sd-webui-aki-v4\extensions\sd-webui-controlnet\scripts\controlnet.py", line 1200, in contr
    点卡成金 00:56
  • 1
    最近玩sdxl感觉3060ti吃不消了,训练lora六七秒一步
    Vvvvvv1878 01:11
  • 5
    我是 8g 显存的 3070,用 sdxl 模型的 controlNet 不勾选显存优化会非常慢,一张 1024×1024 的图要一个半小时, 这速度正常么,开了显存优化直接快了 20 倍!,图一是开显存优化速度,图二是打开后再关闭,之前没注意显存优化选项,都是 200 秒每步。 所以 跑 sdxl 用 controlNet 8g 显存必须开显存优化吗
    Vvvvvv1878 01:07
  • 8
    模型和提示词都是腾讯的HunyuanDiT方案
    hiazzzz 01:01
  • 20
    我看外网说效果不太行?
    点卡成金 00:58
  • 3
    用了秋叶大佬的lora训练器,选了整合包自带的v5作底膜,用的新手模式,选好了打好标签的图片,但是开始训练的时候不知道为什么开始训练失败,不知道各位大佬知道是什么原因嘛
  • 2
    模型是PixArt-Sigma-XL-2-2K-MS, 这张是SD3的
    死肥宅 5-22
  • 9
    有没有什么办法,可以直接获取模型支持的提示词列表。
  • 4
    mac版stable diffusion,点击生成按钮会提示python意外退出 loc("varianceEps"("(mpsFileLoc): /AppleInternal/Library/BuildRoots/b6051351-c030-11ec-96e9-3e7866fcf3a1/Library/Caches/com.apple.xbs/Sources/MetalPerformanceShadersGraph/mpsgraph/MetalPerformanceShadersGraph/Core/Files/MPSGraphUtilities.mm":219:0)): error: input types 'tensor<1x77x1xf16>' and 'tensor<1xf32>' are not broadcast compatible LLVM ERROR: Failed to infer result type(s). zsh: abort ./webui.sh
  • 5
    前面一天还可以用今天就不行了,看攻略可能是版本,把所有的插件更新了内核换到最新还是不行
  • 3
    启动器上有显示,但是到网页这里加载刷新都没用。
  • 7
    rt,我在本月11日和19日分别冲了100计算节点+pro会员,也就获得了200计算节点 每天用t4gpu随便泡泡图,基本上一个月就够用了。 昨天下午的时候看了下,还剩140多计算节点,关闭运行 然后晚上就只剩下39计算节点了…… 突然少了100计算节点。 github上发了个问题,目前好像还没人回复
    粘乳指 5-22
  • 11
    我一直出图出都很正常,昨天下午突然就显存不足了,本身图片尺寸就很小,512*800,后来调成512*512也不行,这是为啥呀。搞了一天了也没能明白。
  • 7
    每次人物、服装可以保持一致性
  • 5
    我的是a卡6650xt8g,用pony跑1024的不会爆显存,但是用sd1.5的跑1024就爆显存了,怎么办呀
    11lxd99 5-22
  • 1
    一键更新了下扩展插件,就出现问题了。。其他啥都没动,看不懂更新的是什么扩展。 怎么解决?
  • 7
    rt,还有它们的lora 融合模型 是什么改的。
  • 9
    已经跟着网上教程选了对应的预处理器和模型,但出图压根和参考图没啥联系,晕了
  • 3
    参数如下,过程中好好的,最后的时候脸就变异了。无论pony的动漫还是写实风格大模型都会出现花脸情况,有些lora就不会。水手服就正常,紧身衣就失败。(为啥不用ponydiffusionV6,因为太难设置提示词和参数了,不太会,弃了),问一下,怎么改进,谢谢
  • 5
    Error occurred when executing IPAdapterApply: 'ClipVisionModel' object has no attribute 'processor' Error occurred when executing IPAdapterApply: 'ClipVisionModel' object has no attribute 'processor' File "D:\AI\sd-webui-aki-v4\extensions\sd-webui-comfyui\ComfyUI\execution.py", line 153, in recursive_execute output_data, output_ui = get_output_data(obj, input_data_all) File "D:\AI\sd-webui-aki-v4\extensions\sd-webui-comfyui\ComfyUI\execution.py", line 83, in get_output_data return_values = map_node_over_list(obj, input_data_all, obj.FUNCTION,
    砖砖vbp 5-22
  • 2
    看到些图片画风很喜欢 找不到是什么模型出的图 有大神知道吗
  • 14
    我需要大批量用sd文生图生成这种风格的图片 无论是主模型+关键字+lora还是别的方案都行 只要能做跑出来结果的方案(百里挑一)都行 财力有限,先悬赏500软妹币
  • 5
    第一次使用整合包 打开启动器 会出来一个lock后缀的文件 然后就没有反应了 看了网上说禁用集成显卡 也是没有反应 对了我的电脑是没有独显的 只有集成 麻烦贴吧大佬帮忙看看是什么问题
  • 2
    求助,安卓手机怎么用stable diffusion
    死肥宅 5-22
  • 14
    有没有什么办法能让显卡发热量下降一点点,但又不下降特别多。。。。最害怕的就是xl的小图(768x1160之类的),和adetailer,直奔80,81,82,83,然后有可能突然就黑屏了。。。。大图倒是直接分到内存上,显卡都不怎么超过50度。。。要是能稳定在60~70度就好了。。
    44313 5-22
  • 12
    使用云端部署,路径和关键帧都没问题,但是就是提示这个,路径全英文。 不勾选“使用初始化”就可以出图,奇了怪了,求大佬帮忙解答 Error: 'Init image path or mask image path is not valid'. Check your schedules/ init values please. Also make sure you don't have a backwards slash in any of your PATHs - use / instead of \. Full error message is in your terminal/ cli.
    coolrail 5-22
  • 0
    大佬们,Exception: Sampler DDIM is not supported for SDXL怎么处理呢?
  • 112
    如果想画瑟图就选这个模型准没错,比sd1.5强太多,极大节省修图时间,人物动作不仅好看并且出错概率相比sd1.5也小,目前唯一不足就是lora太少,想固定人物风格比较难。
  • 5
    大佬们麻烦问一下我是7600下载了4.8包用内置的大模型可以正常跑图但是下载了视频里的大模型就会报错这是为啥啊?显存是8g。[lbk]保佑[rbk][lbk]保佑[rbk][lbk]保佑[rbk]
    hiazzzz 5-21
  • 1
    感觉怪怪的
    hiazzzz 5-21

  • 发贴红色标题
  • 显示红名
  • 签到六倍经验

赠送补签卡1张,获得[经验书购买权]

扫二维码下载贴吧客户端

下载贴吧APP
看高清直播、视频!

本吧信息 查看详情>>

小吧:小吧主共4

会员: 会员

目录: 程序设计及人工智能