6.讲义-人工智能辅助设计与绘图技术实务-基础学习班-张海平-第六章 高级图像处理_第1页
6.讲义-人工智能辅助设计与绘图技术实务-基础学习班-张海平-第六章 高级图像处理_第2页
6.讲义-人工智能辅助设计与绘图技术实务-基础学习班-张海平-第六章 高级图像处理_第3页
6.讲义-人工智能辅助设计与绘图技术实务-基础学习班-张海平-第六章 高级图像处理_第4页
6.讲义-人工智能辅助设计与绘图技术实务-基础学习班-张海平-第六章 高级图像处理_第5页
已阅读5页,还剩43页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

自考辅导《人工智能辅助设计与绘图技术实务》第六章高级图像处理第1页第六章高级图像处理第01讲高清放大技术概览及实战

01

高清放大技术概览

高清放大技术的重要性

01高清放大在图像修复中的作用

高清放大技术能够有效提升图像的清晰度,使模糊的图像细节得以恢复。例如在老照片修复中,通过高清放大可以清晰地看到人物的面部特征,让珍贵的记忆得以完美呈现。

在影视后期制作中,高清放大技术可以对低分辨率的视频素材进行优化,使其在大屏幕上也能呈现出良好的视觉效果,提升观众的观看体验。

02高清放大技术的应用场景

在广告设计领域,高清放大技术可以将产品细节放大展示,吸引消费者的注意力。比如在珠宝广告中,通过高清放大可以清晰地展示珠宝的切割工艺和光泽,增强产品的吸引力。

03高清放大技术的发展趋势

随着人工智能技术的不断发展,高清放大技术也在不断进步。例如,基于深度学习的高清放大算法能够自动识别图像中的特征并进行优化放大,相比传统的放大方法,能够更好地保持图像的质量和细节。

未来,高清放大技术将与更多的领域相结合,如虚拟现实、增强现实等,为人们带来更加逼真的视觉体验。

高清放大技术的实现方法使用高清修复进行图像优化高清修复是一种通过算法对图像进行优化的技术,它可以去除图像中的噪点、模糊等缺陷,使图像更加清晰。例如,在处理一些因拍摄条件不佳而模糊的照片时,高清修复技术可以有效地提升图像的质量。使用后期处理/超清放大后期处理/超清放大还可以对图像进行细节增强,通过调整图像的对比度、锐度等参数,使放大后的图像更加清晰、逼真。实战:使用高清修复进行图像优化“高分辨率修复”是利用深度学习技术,对低分辨率或模糊图像进行细节增强和清晰度提升的高级图像处理功能。它基于先进的扩散模型,能学习并理解图像中的结构、纹理和色彩信息,在放大图像的同时保持或恢复高清细节。

1.输入提示词,如“(Desaturatedcolor:2),(retrostyle:2),1girl,femalesolo,originalcharacter,lookingatviewer,greeneyes,blackhair,shorthair,bangs,blackhoodie,hooddown,longsleeves,blackshorts,shortshorts,legs,blackchoker,choker,standing,outdoors,day,city,buildings,antenna,scenery,grass,water,clouds,sky”(去饱和色:2),(复古风格:2),1个女孩,女独奏,原创人物,看着观众,绿色的眼睛,黑色头发,短发,刘海,黑色连帽衫,兜帽,长袖,黑色短裤,超短裤,腿,黑色项链,项链,站立,户外,天,城市,建筑,天线,风景,草,水,云,天空),使用默认512(像素)x512(像素)生成图像。

此时人物面部和手部可能模糊,若提高分辨率,虽画面会清晰一些,但人物比例可能不协调,甚至可能因显卡内存不足无法生成图像。

2.勾选“高分辨率修复(Hires.fix)”复选框启动该功能。3.调整“放大算法”参数,其与“采样方法”类似,用于更改生成方式产生不同效果。虽所有放大算法在生图质量和画面上区别不明显,但生成速度差异较大,推荐使用“R-ESRGAN4x+”作为放大算法。

4.“高分迭代步数”参数功能与“迭代步数”相同,可理解为高清修复时的迭代步数,当“高分迭代步数”为0时,会与“迭代步数”保持同步,一般无需额外调整。

5.调整“重绘幅度”参数,其原理与图生图页面的“重绘幅度”一致。高清修复功能本质是将生成图像在潜空间中放大后再通过降噪生成为图片,重绘幅度即潜空间放大过程中与原图的不相似程度。若希望不要太脱离放大前的图像,可将此参数控制在0.3-0.5。

6.调整“放大倍数”参数,默认值为“2”。若图像分辨率为512(像素)x512(像素),放大后为1024(像素)x1024(像素),也可直接调整“将宽度调整为”和“将高度调整为”来自定义放大后的尺寸。

7.单击“生成”按钮,高清修复功能不仅提升画面分辨率,还对画面细节进行整体提升。

实战:使用后期处理功能放大“后期处理”页面(在其他版本中也称为“附加功能”页面)为我们提供了丰富的图片处理选项。该页面中的图像高清放大功能与文生图和图生图的高清放大有显著不同,它允许用户上传自己的图片并直接提高图片分辨率,且不包含“重绘幅度”参数,即不会对原图进行重绘或修改,而是直接提升图片分辨率。

1.单击菜单栏中的“后期处理”菜单或单击原图下方的按钮进入“后期处理”页面。

2.上传图像后,可选择倍数进行缩放,也可直接对分辨率进行设置来缩放。手动设置分辨率最高上限为2048(像素)x2048(像素),按倍数放大则没有上限。

3.设置完想要放大的倍数或尺寸后,可调整放大算法。参数面板中有两个放大算法选项,且支持同时使用两种不同的放大算法。

4.打开“放大算法1”下拉列表,选择“R-ESRGAN4x+”选项,可先不对放大算法2进行调整,直接单击“生成”按钮。若使用低分辨率且面部细节模糊的图像作为原图,放大后的图像面部细节可能依然不尽如人意,只是分辨率变大。和其他放大功能配合使用时,可达到最佳效果。

实战:直接使用图生图放大还可借助图生图的功能进行高清放大。这种方法在提升图像分辨率的同时,保留了原图的细节和风格。

1.单击图库--生成图像预览窗口下方的按钮,将图像和提示词参数一键发送至图生图页面。

2.直接设置图像分辨率和重绘幅度。例如,原图分辨率为512(像素)x512(像素),希望图像分辨率放大两倍,可直接将分辨率改为1024(像素)x1024(像素),接着适当调整重绘幅度,0.3-0.6均为合适的范围。不过此方式有尺寸上限的局限性,当分辨率过大时会导致无法生图。

第02讲高分辨率修复详解一、高分辨率修复详解高分辨率修复详解—文生图

高分辨率修复是在生图过程中直接实现图像放大的一种方式,常见于V1.5和XL系列模型。当分辨率设置大于1024PX时,画面易出现多个主体或扭曲变形的情况。因此,先设置较低分辨率,再在生成过程中进行放大。

使用方法1.设定提示词及生成参数。

2.勾选“高分辨率修复”选项。

3.在弹出的设置板块中进行相关设置。

第03讲放大算法分类放大算法选择放大算法分类

高分辨率修复中,常用的放大算法有以下几种:1.Latent(潜空间)放大算法Latentbilinear(潜空间双线性)

Latentnearest(潜空间最邻近)

Latentbicubic(潜空间双三次)

2.像素空间放大算法

Bicubic(双三次)

Lanczos(兰索斯)

NearestNeighbor(最邻近)

Area(区域)

3.更高级的算法

Real-ESRGAN(真实增强超分辨率生成对抗网络)

R-ESRGAN(修复增强超分辨率生成对抗网络)

1.Latent(潜空间)放大算法:

Latentbilinear(潜空间双线性):这是一种基于双线性插值的算法,在潜空间中对图像进行放大。它通过计算相邻像素的加权平均值来生成新的像素值,相对简单快速,能够在一定程度上保持图像的平滑度,但可能会损失一些细节。例如,在处理一些较为平滑的背景区域时,该算法能较好地进行放大处理,不过对于精细的纹理部分,可能会出现模糊现象。

Latentnearest(潜空间最邻近):该算法选择离目标像素最近的原始像素值作为新像素值,这种方法速度快,但可能会导致放大后的图像出现锯齿状边缘和块状效应,尤其在处理具有明显边缘的图像时,效果不够理想。不过,在一些对实时性要求较高且对图像质量要求相对较低的场景中,它仍有一定的应用价值。

Latentbicubic(潜空间双三次):双三次插值是一种更复杂的算法,它考虑了周围多个像素的信息来计算新像素值。与双线性插值相比,双三次插值在放大图像时能够更好地保留细节和减少模糊,生成的图像质量更高,对于需要保持图像细节的场景,如人物肖像、精细的图案等,效果较为出色。

2.像素空间放大算法:

Bicubic(双三次):在像素空间中应用双三次插值算法。它通过对周围16个像素进行加权平均来计算新像素值,能够在放大图像的同时保持较好的边缘平滑度和细节,是一种常用的高质量放大方法。在处理自然图像时,双三次算法可以使放大后的图像看起来更加自然和清晰。

Lanczos(兰索斯):该算法在减少振铃效应(即图像边缘出现的波纹状伪影)方面表现出色。它通过使用一个特殊的滤波器来计算新像素值,在放大图像时能够提供较好的细节保留和抗锯齿效果,适合处理具有高频细节的图像,如风景照片、艺术作品等。

NearestNeighbor(最邻近):与潜空间最邻近算法类似,它直接将最邻近的像素值复制到新的位置,简单快速但会产生明显的锯齿和块状效果,一般在对图像质量要求不高或需要快速预览放大效果时使用。

Area(区域):这种算法通过计算原始图像中一个区域的平均值来确定新像素值,在缩小图像时效果较好,在放大图像时相对比较保守,可能会使图像看起来有些模糊,但能在一定程度上减少噪声的影响。

3.更高级的算法:

Real-ESRGAN(真实增强超分辨率生成对抗网络):这是一种基于深度学习的超分辨率算法,专门用于增强图像的分辨率和质量。它通过生成对抗网络(GAN)的架构,学习低分辨率图像与高分辨率图像之间的映射关系,能够在放大图像的同时恢复丢失的细节,增强图像的纹理和清晰度,对于处理各种类型的图像都有很好的效果,尤其是在处理人脸等复杂图像时表现突出。

R-ESRGAN(修复增强超分辨率生成对抗网络):是Real-ESRGAN的改进版本,进一步优化了对图像的修复和超分辨率处理能力,在处理具有噪声、模糊或损坏的图像时,能够更好地恢复图像的原始质量和细节。

第04讲重绘采样步数与幅度重绘采样步数与幅度重绘采样步数

重绘采样步数决定细节重构次数,通常与生成步数一致,确保图像细节平滑过渡,避免锯齿效应。

重绘幅度影响

重绘幅度小于0.3,图像与原图高度相似,细节改善有限;大于0.7,细节丰富但可能偏离原图内容。参数调节策略建议从0.5或0.6开始尝试,平衡图像相似度与细节丰富度,根据放大效果微调,达到最佳视觉体验。

第05讲放大倍数与建议放大倍数与建议放大倍数

放大倍数即我们期望将图像放大的程度,采用等比缩放的方式,只需指定具体的放大倍数即可。例如,对于一张512×768像素的图像,若放大两倍,其尺寸就变为1024×1536像素。

使用建议

不建议在日常图像生成过程中始终开启高分辨率修复功能,因为这会显著增加出图所需的时间。比较好的做法是,先用小尺寸批量生成图像,筛选出满意的结果后,再通过固定种子值的方式对其进行指定倍数的放大操作。

放大极限

不同基础算法(1.5、XL、F.1系列)有着各自的放大上限。其中,V1.5和XL系列最高可将图像放大至2048×2048像素,而F.1系列则能够放大到3072×3072像素。高分辨率修复详解—图生图

对画面细节精度的要求并不高,仅仅需要一张大尺寸的图片,那么可以直接采用后期处理的方式。参照之前的实战案例即可。

但是将一张普通图像转换为2K甚至4K级别的高清壁纸,需选择超清放大功能

第06讲超清放大技术应用二、超清放大技术应用高分辨率修复详解—超清放大应用

1.上传图像

首先,通过点击上传按钮,选择需要放大的图像文件,确保图像清晰,以便后续放大处理。高分辨率修复详解—放大方法与效果增强

checkpoint大模型配合

01

选择匹配模型

针对不同风格图像,精选社区大模型,如二次元选AWpainting,写实照片配麦橘写实,确保放大效果最佳。

02

模型兼容性注意

超清放大暂不支持F点1大模型,需选用V1.5、XL系列或其他兼容模型,以实现5120x5120PX的极致放大。

03

模型与图像协同

上传图像前,先确定其风格类别,再从社区下载对应大模型,安装至哩布UI,实现个性化超清放大效果。

高分辨率修复详解—放大方法与效果增强

3.效果增强的设置

精准控制放大细节。

当重绘幅度大于0.5时,可以将这三个参数全部勾选,然后再根据实际生成的画面效果来对参数进行相应的调整。

01

全面增强

若重绘幅度大于0.50,启用全面增强功能可维持画面主体的一致性。通常,将数值设定为默认的1即可。需注意,此设置在1.5系列模型中效果更为稳定。而对于XL系列模型,采用该设置可能会引发色彩失真现象。

02

细节强化

细节强化参数的功能是丰富画面细节。然而,若该参数数值过高,会致使画面显得杂乱。因此,建议将此参数设置在0.5左右为宜。

03

画质增强

画质增强功能可有效提升画面整体质量。在设置该参数数值时,可将其控制在0.5至1.5的区间范围内。

第07讲放大技巧实践建议

三、放大技巧实践建议

算法选择与生成

第08讲常见问题与解决方案

常见问题与解决方案

第09讲高清修复方式优缺点、常见疑问解答四、高清修复方式优缺点放大方式优缺点分析

高清修复

文生图中常用放大手法,本质是“再做一次图生图”,效果不错,但速度慢且吃显存

后期处理

通用放大手法,会让细节变得更加锐利清晰,速度非常快但效果一般放大方式优点缺点高清修复1.有效提升文生图的清晰度和细节,如面部皮肤纹理、发丝及衣服蕾丝边透明感等细节更突出。

2.能克服单纯提高分辨率时产生的多人多头问题1.运算负担重,开启后生成一次图的时间相当于常规情况的2-3倍。

2.受显存限制,无法突破显存约束绘制更大尺寸图像。

3.重绘幅度较难把控,太低易出现边缘模糊,太高则画面容易变形或出现加戏情况,如人物头上装饰变复杂、背景元素跑到人物身上等后期处理1.操作简单方便,类似重绘幅度为零的高清修复,容易上手。

2.运行速度快,几秒钟就能完成一张图的放大。

3.可随时调用,无论是图生图还是文生图,得到相对清晰版本后都能进一步处理放大后的图片整体精致细腻程度不如高清修复,只是在拉伸放大基础上适当优化线条和色块边缘模糊区域五、常见疑问解答网上4K、2K分辨率且细节丰富的作品是直接出图还是经过修复放大的?

答案:是的,一定经过了高清修复。

操作流程:直接高清修复压力较大,部分创作者会先将图片高清修复至中等分辨率级别(1000-2000),然后借助放大工具,或USU、Tile等工具,进一步放大到超高分辨率(3000-4000)。

高清修复与直接固定种子提高分辨率再画一张有何区别及优势?

解答可从以下两方面来看:

1.种子与分辨率关系:直接固定种子提高分辨率的方式实际上不存在。因为同一随机种子数,在不同分辨率下的生成过程差异极大,无法借助随机种子实现分辨率的升级。

2.高清修复的优势:高清修复本质是“图生图”。首次生成的低质量图片可作为“参考系”,有效固定画面内容,这正是高清修复的意义所在。

第10讲TD&VAE高清放大六、知识拓展:TiledDiffusion&VAE高清放大TiledDiffusion&VAE高清放大原理:

处理方式:分块处理。将大图分割为小尺寸区块,分别绘制后无缝拼接,降低显存压力。

分工协作:TiledVAE负责编码分块,TiledDiffusion负责扩散生成,优化显存消耗。组件功能协作逻辑TiledVAE负责图像分块后的编码和解码,将大尺寸图像分割为小区块,降低显存处理压力。先由VAE分块编码,再由Diffusion分块扩散生成,最后拼接还原。TiledDiffusion基于分块进行扩散生成,逐块绘制并通过重叠区域算法无缝拼接,保留细节。二者必须同时启用,缺一不可。TiledDiffusion&VAE高清放大原理:

处理方式:分块处理。将大图分割为小尺寸区块,分别绘制后无缝拼接,降低显存压力。

分工协作:TiledVAE负责编码分块,TiledDiffusion负责扩散生成,优化显存消耗。

第11讲TD&VAE的算法选择与生成

算法选择与生成

TiledDiffusion采用了两种SOTA扩散平铺算法(MixtureofDiffusers&MultiDiffusion)

通过分块扩散生成+无缝拼接,实现低显存下超高清图像绘制,解决传统方法显存不足、接缝明显、细节丢失等问题。

01MixtureofDiffusers(混合扩散器)

原理

·分块策略:将图像分割为多个重叠小块,每个小块独立扩散生成,通过高斯平滑算法融合边缘,消除拼接痕迹。

·核心优势:

◦接缝自然:高斯平滑处理重叠区域,无需高重叠值即可实现无缝过渡(推荐重叠16-32像素)。

◦效率优先:块处理速度快,显存消耗低,适合快速生成2K-4K分辨率图像。

◦兼容性强:支持真实图像与二次元风格,尤其适合对边缘过渡要求高的场景(如人像皮肤、渐变背景)。

·典型参数

分块大小:64-128像素(平衡速度与细节)。

重叠区域:16-32像素(因高斯平滑优化,无需高重叠)。

适用场景:日常高清放大、快速出图、对显存敏感的设备(如8GB显存显卡)。

02MultiDiffusion(多重扩散)

原理

·分块策略:将图像划分为非重叠或高重叠区块,每个区块独立运行扩散过程,通过逐块优化+全局融合,保留更多细节。

·核心优势:

◦细节极致:每个块单独处理,适合复杂纹理(如发丝、布料褶皱)和超高清(4K-6K)生成。

◦可控性强:支持自定义区块提示词(如局部区域强化细节),适合需要精确控制的场景(如插画线条、建筑结构)。

◦稳定性高:高重叠设置(32-48像素)减少接缝风险,适合对画面完整性要求高的作品。

·典型参数

分块大小:96-160像素(大尺寸块提升速度,但不超过模型支持上限1280像素)。

重叠区域:32-48像素(确保块间内容关联,避免断裂)。

适用场景:超高清插画、复杂场景构图、需要局部细节强化的图像(如6K壁纸、高精度3D模型渲染图)。核心对比与选择建议维度MixtureofDiffusersMultiDiffusion核心目标高效生成,低显存,快速出图极致细节,精准控制,超高清生成接缝处理高斯平滑优化,低重叠即可自然融合高重叠+逐块融合,接缝控制更严格速度快(处理块数少,计算轻量)较慢(块数多,重叠计算复杂)显存消耗低(适合8GB-12GB显存)中高(推荐12GB+显存处理4K+分辨率)适用风格真实人像、风景、渐变背景等自然过渡场景二次元插画、复杂线条、高精度细节场景推荐放大倍数2x-3x(2K-4K)3x-4x(4K-6K,需配合TiledVAE降低显存)

第12讲TD&VAE的实战技巧

实战技巧

显存不足解决方案:

优先选择MixtureofDiffusers,降低分块大小至64像素,重叠设为16。

启用TiledVAE进一步优化显存,避免CUDA内存错误。

细节强化策略:

对人物面部、机械零件等关键区域,使用MultiDiffusion并提高重叠至48像素,配合ControlNetTile模型锁定结构。

效率与质量平衡:

初稿生成选MixtureofDiffusers(快速预览效果),终稿优化切至MultiDiffusion(精细化细节)。

第13讲TD&VAE的高清放大效果验证

高清放大效果验证

案例准备

选取真实人物图像,初始尺寸512x640,目标放大三倍至1536x1920,验证TiledDiffusion效能。

常规方法对比

传统高清修复耗时近40秒,显存满载,效率低下,凸显TiledDiffusion必要性。

TiledDiffusion应用

调整分辨率,启用TiledDiffusion与VAE,参数设置适中,实现高效高清放大,仅18秒,显存消耗减半。

效果验证

对比原图与放大图,细节丰富,无明显差异,证实TiledDiffusion卓越放大效果。

第14讲TD&VAE的参数配置详解

参数配置详解

第15讲TD&VAE核心优势

TiledDiffusion&VAE核心优势:

效果好:分块精细生成,细节(如纹理、光影)还原度远超传统方法,避免接缝与失真。

效率高:生成速度提升50%+,相同分辨率下耗时仅为高清修复的1/2~1/3。

可控性强:支持自定义分块大小、重叠区域、放大算法,适配不同风格(真实/二次元)与显卡性能。

显存优化:通过分块处理,显存消耗降低50%以上,低显存显卡(如8GB)也能生成2K+分辨率图像。

第16讲ComfyUI高清修复应用七、知识拓展:comfyUI高清修复应用什么是ComfyUI?

定义

·开源项目:基于Python的可视化工作流框架,专为AI模型(如StableDiffusion、ControlNet)设计,通过节点连接构建复杂流程。

·核心定位:替代传统UI的“可视化编程工具”,让AI生成、模型组合、参数调整更灵活直观。

核心特点

节点化工作流:拖放节点连接数据与操作,支持动态流程编辑

跨模型兼容:无缝集成StableDiffusion、ControlNet、LDM等主流AI模型

高性能推理:支持GPU加速,优化显存管理,降低内存占用

社区活跃:GitHub超10K星,持续更新新功能与插件

第17讲ComfyUI的节点化工作流

核心功能解析——节点化工作流

1.可视化节点编辑器

基础节点:文生图(Text2Image)、图生图(Image2Image)、提示词生成器(PromptEditor)

高级节点:

模型加载(ModelLoader):支持同时加载多个Checkpoint、LoRA、Hypernetworks

控制网络(ControlNet):一键连接姿势、深度图、线稿等控制信号

后处理工具:高清修复(Upscale)、图像分割(Segmentation)、批量生成(BatchProcess)

2.动态参数调节

节点间自动传递数据(如生成图→修复→放大)

支持实时预览中间结果,快速调试流程

第18讲ComfyUI的架构优势

架构优势——为什么比传统UI更强大?

对比传统工具(如WebUI)维度ComfyUI传统UI流程灵活性自由组合节点,支持复杂逻辑(循环、分支)固定预设流程,自定义有限显存效率分节点管理显存,支持低显存设备生成大图单进程占用显存,低配置易崩溃多模型协作原生支持多模型串联(如SD+ControlNet+VAE)需手动切换模型,流程中断扩展性支持Python脚本自定义节点,插件生态丰富依赖官方更新,第三方扩展难度高

第19讲ComfyUI的技术亮点

技术亮点

Workflow文件:流程可保存为JSON文件,一键分享复现(例:复杂ControlNet+TiledDiffusion工作流)

分布式计算:支持跨设备协作(如CPU处理预处理,GPU专注生成)

第20讲ComfyUI的一键放大操作演示

一键放大操作演示

01启动comfyUI

打开comfyUI界面,直观设计,快速上手。

或选择游戏工作流运行comfyUI,如:Flux完美高清放大V2

02上传待放大图像

找到基础调度器,调整降噪数值,数值建议选择0.23-0.4之间。点击开始生图。调整重绘幅度

找到基础调度器,调整降噪数值,数值建议选择0.23-0.4之间。点击开始生图。保存图像

找到右下角的“保存图像”节点,将鼠标放图像上单击右键,选择“保存图像”即可。若有更换模型的需求,可在工作流的右上方找到「UNET加载器」节点。点击「UNET名称」,即可将当前的默认模型替换为模型库中的其他模型。无论您所需的图像风格是卡通、3D还是写实,都能在模型库中挑选到与之最为适配的大模型。

特别需要留意的是,在此处进行模型选择时,需选用基础算法为F.1系列的大模型。

第21讲局部重绘修复人脸模糊、使用Embeddings修复任务崩坏

02

局部重绘修复人脸模糊

实战:使用局部重绘修复人脸模糊

处理大场景或人物众多的画面时,人物脸部容易出现模糊或崩坏的情况。可借助局部重绘功能修复人脸模糊,提升图像整体质量。1.在图生图中输入正向提示词“(afewgirls:1.3),vista-tan,front,wholebody,shotfromadistance,flower,outdoors,schooluniform,day,sky,lookingup,shortsleeves,shirt,cloud,sunlight,whiteshirt,pinkflower,bluesky”(几个女生,远景,正面,全身,从远处拍摄,花,室外,校服,白天,天空,人物视角抬头看,短袖,衬衫,云,阳光,白衬衫,粉红色的花,蓝天),简单调整参数后单击“生成”按钮。

2.当场景较大、人物较小且较多时,人物面部可能模糊不清。打开“高分辨率修复”功能后,画面虽更清晰,但人物面部依然不够清晰,此时可使用局部重绘功能。

3.将图像和提示词发送至图生图局部重绘板块。4.用蒙版笔刷对角色面部进行涂抹,调整“重绘幅度”,建议设置为中等偏高的数值。

5.单击“生成”按钮,若重绘之后的图像细节和重绘前没有太大区别,是因为当前“重绘区域”选区中默认选择“整张图片”单选按钮,此时在“重绘区域”选区中将“整张图片”改选为“仅蒙版区域”单选按钮。

6.再次单击“生成”按钮,生成图像时会优先将蒙版区域单独放大生成,生成完成后再与原图进行融合,保证蒙版区域分辨率显著提升,角色面部细节得到显著修复。但需注意,局部重绘功能在某些复杂或极端情况下,可能仍需借助其他图像处理技术或手动调整来达到理想效果。03

使用Embeddings修复人物崩坏

实战:使用局部重绘修复人脸模糊

在图像生成过程中,涉及复杂场景和人物细节时,可能出现画面崩坏的情况,如人物特征扭曲、比例失调或整体结构混乱等。哩布AI提供了使用TextualInversion修复此类问题的方法。

EasyNegative:旨在减少图像中不必要的细节和噪点,使画面更加简洁和清晰。应用该模型可消除图像中的冗余细节,突出主体元素,增强图像的视觉焦点和整体美感。可在哩布网站搜索“EasyNegative”获取详细介绍。

badhand:专注解决图像中手部细节问题。由于手部结构复杂,生成图像时手部易出现失真或模糊情况。badhandEmbeddings提供明确的手部特征和结构信息,帮助模型生成更真实、更精细的手部细节。在网站搜索“badhand”可找到其详细介绍。

DeepNegative:是一种更高级的负向模型,旨在进一步提升图像的质量和细节。它通过对图像中的负面特征进行深度分析和学习,帮助模型避免生成不理想的元素,优化图像整体表现。使用该模型可获得更清晰、细腻且富有层次感的图像,减少模糊、畸变和色彩失真等问题,提升图像的对比度和色彩饱和度,使画面更加生动和鲜明。在网站搜索“DeepNegative”可获取其详细介绍。

第22讲Embeddings及Embeddings与TI的关系

Embeddings(词嵌入):轻量化标签的魔法

核心原理

·文本倒置(TextualInversion):通过少量样本训练,生成指向特定概念的“书签”,引导AI组合已有知识

·类比:Checkpoint是“字典”,Embeddings是“书签”,标记关键概念的位置(如“猫鼬=猫+鼬+妖怪”的组合索引)

Embeddings模型与TextualInversion

1.本质关系:技术与产物的绑定

TextualInversion(文本倒置)是技术方法:通过少量样本训练,让AI模型“理解”特定概念(如角色、风格、物体)。

Embeddings(词嵌入)是技术结果:TextualInversion训练后生成的轻量化文件(.pt格式,几十KB),存储了概念的“向量表示”,相当于给AI的“专属书签”。

类比:

TextualInversion=“教AI记住‘小猪佩奇’长什么样”

Embeddings=“把‘小猪佩奇’的特征写成一张小纸条(向量),塞进AI的‘大脑’里”

2.核心联系:如何让AI“听懂”你的话?

TextualInversion的过程:

给AI看几张“戴帽子的猫”的图片,让它学会“戴帽子的猫”这个概念,生成对应的Embeddings文件。

Embeddings的作用:

之后你输入提示词“戴帽子的猫”,AI会通过Embeddings快速定位到之前学过的特征,生成更准确的图片。

3.一句话总结

TextualInversion是“教AI学新词的方法”,Embeddings是“新词的词典索引”——前者让AI理解概念,后者让AI快速调用概念,二者结合让AI能精准生成你想要的内容(比如修复手部错误、定制独特风格)。

第23讲TI工作原理、Hypernetwork

TextualInversion的工作原理

1.训练过程(3步搞定)

1.准备样本:提供少量目标概念的图像(通常5-20张),如“动漫角色A”的不同姿势图。

2.反向优化:通过算法找到一组向量(Embedding),使模型生成的图像与样本高度相似。

3.生成文件:将优化后的向量保存为Embeddings文件,用于后续生成。

2.核心优势

·轻量化:仅修改模型的文本编码器(非整个模型),文件极小(对比LoRA的100MB,Embeddings仅几十KB)。

·快速适配:无需复杂训练,普通人可通过工具(如DreamBooth简化版)快速创建自定义Embeddings。

Hypernetwork(超网络):细化画风的秘密武器

Embeddings模型与Hypernetwork(超网络)

Embeddings(词嵌入)

·本质:TextualInversion技术生成的“概念书签”,标记特定对象/风格/错误特征(如“戴帽子的猫”“正确手部结构”)。

·作用:引导AI检索并组合已有知识,快速定位目标概念。

Hypernetwork(超网络)

·本质:修改模型中间层的“风格滤镜”,微调生成过程中的画风细节(如Q版线条、油画笔触)。

·作用:在不改变主体的前提下,细化画面的艺术风格或质感。

类比:

·Embeddings=“告诉AI‘这是小猪佩奇’的特征标签”

·Hypernetwork=“给AI生成的图加上‘水彩风’滤镜”

Embeddings模型与Hypernetwork(超网络)

核心原理

超参数网络:修改模型的中间层参数,微调生成过程中的风格细节(如笔触、色彩倾向)

类比:Checkpoint是“字典”,Hypernetwork是“滤镜”,调整输出风格的细腻度(如“Q版”“水彩风”)

核心功能与用法

画风微调

启用路径:设置→附加网络→选择Hypernetwork→应用

案例:使用w_chip_style生成Q版插画,保留角色特征同时改变线条质感

适用场景

艺术风格转换(梵高风、赛博朋克、像素画)

缺点:效果不如LoRA稳定,部分场景可被LoRA替代

第24讲Embeddings核心功能

Embeddings的核心功能与应用场景

功能1:特定概念生成(正向Embeddings)

用途:让AI生成模型原本不熟悉的概念(如小众角色、自定义风格)。

案例:

下载“DivaEmbedding”,提示词加入cornealdiva,AI会生成该角色的特征(服饰、发型等)。

自定义训练“赛博朋克风格Embedding”,输入提示词即可生成统一风格的图片。

功能2:错误规避(负面Embeddings)

用途:解决AI生成中的常见错误(如手部畸形、肢体错位)。

案例:手部修复(Embeddings)

问题:AI生成多指/错位的手

·方案:负面提示词加入easynegative:1.2,无需额外正面提示词

·效果:手部结构正确率提升50%,细节质感明显改善

原理:Embeddings存储了大量错误样本的向量,引导AI“避雷”。

功能3:结构化生成(如三视图)

用途:生成角色/物体的多视角图(正面、侧面、背面)。

案例:角色三视图(Embeddings+LoRA)

1.嵌入触发词:acharacterturnroundofcyberpunkgirl

2.加载LoRA:强化角色服饰细节(权重0.7)

3.生成结果:正面/侧面/背面图结构统一,特征稳定

提示词格式:

acharacterturnroundof[角色名称],wearing[服饰],frontview,sideview,backview

关键:结合Embeddings标记“三视图结构”,AI会生成统一风格的多视角图。

第25讲LoRA核心原理及三大模型核心价值

LoRA(低秩适应模型):精准定制角色特征

核心原理

低秩适应技术:通过训练特定样本(如角色多视角图),在原模型基础上添加“特征补丁”,强化特定细节

类比:Checkpoint是“字典”,LoRA是“彩页”,详细描述某个概念的专属特征(如“小猪佩奇=粉色身体+红色靴子”)

核心功能与用法

角色精确还原

提示词格式:<lora:文件名:权重>(如<lora:diva_lora:0.7>)

权重建议:0.5-0.8(平衡特征保留与画风兼容)

二次创作优势

适用场景:游戏/动漫角色、真实人物肖像、IP形象定制

EmbeddingsvsLoRA:核心区别维度Embeddings(TextualInversion)LoRA(低秩适应模型)文件大小极小(几十KB),轻量化标记中等(100-200MB),深度特征定制训练难度简单(少量样本即可,适合新手)较复杂(需大量高质量样本)适用场景快速概念标记(如风格、简单特征)精准角色还原(如多姿势、多表情角色)效果特点引导检索组合已有知识,灵活性高直接修改模型参数,特征稳定性强典型案例手部修复、三视图结构、小众风格控制游戏角色二次创作、真实人物肖像还原三大模型核心价值模型类型核心作用典型场景Embeddings标记特定概念,引导AI检索组合快速风格控制、错误规避LoRA深度定制角色/物体特征精确角色还原、二次创作Hypernetwork细化画风(如Q版、油画质感)艺术风格微调

第26讲Embeddings的常见问题

常见问题与避坑指南1.为什么Embeddings效果不稳定?

原因:Embeddings仅标记概念,不修改模型深层参数,复杂特征(如动态姿势)依赖基础模型能力。

解决:结合LoRA或ControlNet强化细节,或选择经过高质量训练的Embeddings(查看C站模型评分和评论)。

2.如何自定义训练Embeddings?

工具:使用StableDiffusion的textual_inversion脚本,或简化工具(如Automatic1111WebUI的训练模块)。

要点:样本需统一风格/特征,避免噪声(如背景杂乱、姿势差异过大)。

3.负面Embeddings能解决所有错误吗?

不能:如手部严重畸形可能需要结合局部重绘(InPainting)或ControlNet姿态控制,Embeddings仅降低错误概率。

何时选择Embeddings?

新手入门:优先用Embeddings解决基础问题(如手部、风格),轻量化易上手。

快速实验:尝试新风格、新角色时,通过Embeddings快速验证效果,避免复杂训练。

辅助修正:作为LoRA/ControlNet的补充,优化细节(如用负面Embeddings减少瑕疵)。

第27讲面部扭曲问题解析、解决方案与技巧01面部扭曲问题解析

问题成因分析

图像生成模型对比

V1.5/XL系列模型

出图尺寸较小,512至1024像素,面部区域像素量有限。难以精细描绘面部特征,导致面部扭曲模糊。设计初衷非针对高清面部细节生成,算法优化偏向整体图像处理。F.1模型支持更高分辨率,1024x1536像素,拥有更多像素用于面部细节描绘。显著减少面部扭曲问题,提高图像质量。常见模型对比02解决方案与技巧

1.提高分辨率

01

分辨率的重要性

增加分辨率可以显著改善面部细节,避免模糊扭曲。

02

XL模型应用

使用XL模型时,将分辨率设为1024PX,面部像素增多,细节更清晰。

03

实践建议

优先选择支持高分辨率的模型,如F.1,确保面部区域像素充足。

2.开启高分辨率修复技术3.应用ADetailer面部修复插件

第28讲ADetailer插件详解及面部修复模型类别

03ADetailer插件详解

3.应用ADetailer插件——面部修复

Adetailer应用方法1

01填好提示词后;

02打开ADetailer面板,勾选启动选项;

03选择适合的修复模型,如face_yolov8m,该模型面部修复效果很好;

04点击生图,自动对面部进行重绘修复。3.应用ADetailer插件——控制人物面部表情

Adetailer应用方法2

01填好提示词后后,打开ADetailer面板,勾选启动选项;

02选择适合的修复模型;

03在插件里的提示词输入框内添加表情描述;

04点击生图,自动对面部进行重绘。4.ADetailer面部修复模型类别

YOLO系列--适用于2D3D卡通写实等多种风格

·face_yolov8n.pt:适用于2D图像和真实人脸的检测与修复,参数量级较小,处理速度相对较快,可作为基础选择,如果效果不佳再尝试其他模型。

·f

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论