版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
基于AIGC算法的数字人技术在电影中的应用研究摘要伴随人工智能技术的进步,生成式人工智能,AIGC于影视行业里的运用日渐普遍,尤其在数字人技术范畴显示出巨大的发展潜能,本文开篇回顾数字人技术的发展历程,再剖析传统影视制作里是如何实现虚拟角色的生成与驱动以及所面临的核心挑战。重点探寻AIGC在数字人建模中的两种主要途径,并就其高效性、可拓展性以及高精度等层面深入分析,本文还联合具体案例做分析,探寻AIGC数字人在电影制作中的实际应用途径,涉及虚拟替身和特效角色的构建活动、快速产出角色、交互创新的开展以及沉浸式体验的增强程度,本文对由AIGC驱动的数字人技术的优劣之处展开评估,同时展望其今后的发展趋势。
关键词:人工智能、AIGC、数字人、电影制作、虚拟角色、电影特效ABSTRACTWiththeprogressofartificialintelligencetechnology,basedonthegeneratedartificialintelligence,theapplicationofAIGCinthefilmandtelevisionindustryisbecomingmoreandmorecommon,especiallyinthecategoryofdigitalhumantechnology,showinggreatdevelopmentpotential.Atthebeginningofthisarticle,thisarticlereviewsthedevelopmentprocessofdigitalhumantechnology,andthenanalyzeshowtorealizethegenerationofvirtualcharactersintraditionalfilmandtelevisionproduction.Andthedrivingandthecorechallengesfaced.FocusonexploringthetwomainwaysofAIGCindigitalhumanmodeling,andmakeanin-depthanalysisofitshighefficiency,expandabilityandhighaccuracy.ThisarticlealsoanalyzesspecificcasestoexplorethepracticalapplicationofAIGCdigitalpeopleinfilmproduction,involvingtheconstructionactivitiesofvirtualdoublesandspecialeffectscharacters,Theenhancementoffastoutputrole,interactiveinnovationandimmersiveexperience.ThisarticleevaluatestheadvantagesanddisadvantagesofAIGC-drivendigitalhumantechnology,andlooksforwardtoitsfuturedevelopmenttrend.Keywords:artificialintelligence,AIGC,digitalhumans,filmproduction,virtualcharacters,filmspecialeffects目录TOC\o"1-3"\h\u6869摘要 312692ABSTRACT 418749目录 51023引言 620023第一章传统数字人建模方法及其局限性 716652第一节传统方法简介 728997第二节传统方法局限性分析 83811第二章AIGC算法驱动的数字人技术 94571第一节AIGC算法驱动形象生成 9363一、基于图像和视频生成 925983二、参数化模型生成 93177第二节AIGC算法驱动的技术特点 117152一、高效性 1110107二、可扩展性 1216805三、高精度 1215153第三章AIGC算法驱动的数字人技术在电影制作中的应用 1415136第一节虚拟替身与特效角色 1426504第二节快速角色生成 1518403第三节交互创新 1630606第四节提升沉浸体验 1612811第四章基于AIGC算法的数字人技术在电影中应用的优劣 1813063第一节优势分析 1814310一、降低成本 181602二、丰富艺术表现手段 1926357第二节局限性分析 1931100一、恐怖谷效应 197223二、成本与资源局限性 2031880三、伦理与社会问题 2115291第五章未来发展与展望 2228826第一节技术发展方向 22455第二节应用前景 2226968结论 248716参考文献 25引言数字人(DigitalHuman/MetaHuman)是具备接近真人的外观、行为以及思想特征的虚拟实体,在数字空间中呈现出类人的交互反应。[[]钟世镇.数字人—信息与生命科学结合的新域[J].科领技导报.2005(2).][]钟世镇.数字人—信息与生命科学结合的新域[J].科领技导报.2005(2).数字人逐步拥有了更繁复的动作表现及情感表达能力,回应了电影产业提升视觉效果的期盼,借助三维建模技术,虚拟人物可在空间中自由旋转和移动,且实现更精细的细节展现,当引入动作捕捉技术,数字人就被赋予了高度逼真的肢体运动效果,让其可以模仿并重现人类的动态举动。伴随生成式人工智能(ArtificialIntelligenceGeneratedContent,AIGC的浮出水面,数字人的表情、语音,甚至思维模式也逐步得到了提升,能表现出更加丰富的情感相关反应,甚至还能实现人机交互活动。伴随AI技术的迅猛发展,数字人已成为人工智能的核心载体,牵系现实与虚拟世界的桥梁,大语言模型(LLM)与语音生成技术赋予数字人自然交流本事;深度学习(DL)能让数字人模拟人类的思维与行动;大数据与云计算技术推动数字人实现个性化定制及实时沟通,因这些技术的赋能,数字人能够充分运用其高度拟人化的形象及智能化互动能力,再度定义人类与数字世界的交互手段,促进叙事与用户体验向多元化未来迈步。[[]刘笑微,肖婧澜,宋震,.数字人技术在电影与数字内容领域的创新应用[J].现代电影技术,2024(09):33-40.[]刘笑微,肖婧澜,宋震,.数字人技术在电影与数字内容领域的创新应用[J].现代电影技术,2024(09):33-40.人工智能正在重塑电影的制作模式,助力产业实现数字化发展,数字人技术早已成为一个跨学科的研究范围,牵涉计算机科学、人工智能、数字艺术、影视制作等多个学科方面,并一直带动虚拟人物真实感及交互能力的提升。[[]\t"/reader/DYLX202418002"[]\t"/reader/DYLX202418002"曹伟;.从“沉浸—反思”到“观看—互动”:“影游融合”视域下传统观影向“数字人”审美的范式嬗变[J].电影文学,2024,No.855(18).第一章传统数字人建模方法及其局限性第一节传统方法简介传统数字人建模途径采用Maya、3dsMax[[]Murdock,K.L.(2008).
3DSmax2009bible
(Vol.560).JohnWiley&Sons.]等专业类软件,建模的步骤主要有基础建模、纹理绘制、骨骼绑定、渲染输出等。[[[]Murdock,K.L.(2008).
3DSmax2009bible
(Vol.560).JohnWiley&Sons.[]\t"/reader/DNBC202109056"马倩倩;.基于MAYA软件的三维动画制作技术及应用[J].电脑编程技巧与维护,2021(09):146-147+156.以多边形建模(PolygonModeling)、曲面建模(NURBSModeling)或体素建模(VoxelModeling)等技术构建数字人的基本几何形态,完成基础建模,含有人类的头部、躯干、四肢等部分,建模时要留意模型的布线策略,针对运动频次少且幅度偏小的部位,线条分布宜合理削减,而针对运动幅度较大的地方,如肘膝关节、嘴角和眼角等部位,应增加线条的密度,保证动画既流畅又逼真。材质与贴图用来模拟对象的外在属性及质感,给基础模型添加表层细节,采用UV映射(UVMapping)技术,把二维纹理贴图精确地附着到三维模型表面,常见的纹理类型有漫反射贴图、法线贴图、高光贴图之类的,完成皮肤、衣物等材质细节和质感的还原后,还需为模型搞出骨骼系统,之后将模型跟骨骼实施绑定,要使骨骼能带动模型出现预期的变形结果。虚拟控制器可实现对人物的操控,模型可完成伸手、跑步、跳跃这类动作,在Unity里,可借助导入模型和动作库,打开骨骼界面,把animationtype调整为humanoid,接着开展骨骼绑定工作,开展骨骼绑定能先选中物体,之后再选中骨骼,还可选择骨骼方面的选项或者选择附带自动权重的情形。在面部表情及姿势动作设计完毕后,还应做灯光设置以及摄像机的调试,以此保障最终画面的光影效果和视觉震撼力,一般而言要设置不同类型光源,涵盖主光决定整体的亮度及方向,辅光起到平衡阴影的作用,轮廓光能增进角色的立体感,环境光去模拟整个场景的光照,让场景看上去更自然。各异的光影组合能塑造出截然不同的视觉样式,写实风格要求过渡要柔和,而卡通风格更加看重光影之间的对比,摄像机的角度、位置及其运动方式也十分关键,合理抉择仰视、俯视或正视角可塑造出不同风格的角色形象,而调整焦距可以影响透视感以及画面氛围。动态镜头能增进叙事的实际效果,让画面增添沉浸感,完成场景、灯光以及摄像机的设置后,最终需借助渲染器把三维场景跟角色渲染为图像或视频,渲染时应全面顾及质量、速度、光影计算模式(例如光线追踪、全局光照GI)、材质反射折射特性等情况,以保证画面合乎艺术方面需求,又能让计算成本跟视觉效果之间实现最优平衡,在高精度渲染流程执行期间,也许还得执行分层渲染,并在后期合成阶段对色彩、光影及特效进行再优化,进而最终拿出高质量的视觉作品。[[]王猛,高沛鑫.基于Maya技术的角色骨骼动画制作研究[J].电脑知识与技术,2024,20(28):112-114.DOI:10.14004/ki.ckt.2024.1517.[]王猛,高沛鑫.基于Maya技术的角色骨骼动画制作研究[J].电脑知识与技术,2024,20(28):112-114.DOI:10.14004/ki.ckt.2024.1517.第二节传统方法局限性分析传统数字人制作涵盖建模、纹理处理、骨骼绑定、动画制作等多个复杂的环节,依赖专业团队的长期参与,导致生产效率低,制作周期长,制作预算高。如表1所示,数字人涉及到的顶点、纹理和运动数据能够确保动画人物的运动自然流畅,但这些数据是很庞大的。数据类型数据量数据格式空间分辨率时间分辨率顶点数据10000顶点/模型obj1920×108060FPS纹理数据2048×2048/纹理png2048×204860FPS运动数据120帧/动画fbx2048×204860FPS表1三维动画数据在以往的数字角色创作范畴,制作者一般会借助专业级软件工具,而且要掌握像关键帧动画、动作捕捉这类专业技术,对刚刚开始摸索的初学者来讲,若想达到专业水准一般需要投入大量时间做系统训练,关键帧动画技术主要借助时间轴上关键帧的设定,达成对目标对象运动轨迹的控制,其主要操作流程有:选好目标对象,对时间轴上的首帧、关键帧以及末帧进行参数设置,继而由计算机自动完成中间帧的插值核算。当处理复杂动画场景之际,制作者依旧需要对每一帧做精准的调整,此过程往往会伴随着繁重的工作量,葛洪央与马宇飞的《3DSMAX三维设计项目实践教程》[M],大连理工大学出版社,2018.跟关键帧动画相较而言,动作抓取(MotionCapture,MoCap技术可大幅增进动画制作的效率。采用光学或惯性传感器,系统可捕获真实人物的动作数据,并把动作数据映射到虚拟角色之上,生成更贴合自然的运动轨迹,动作捕捉技术得借助昂贵的硬件设备,而且在数据采集之后,一般需进行繁琐的数据清理和矫正,以消除噪声干扰、解决丢帧故障以及矫正异常关节角度,这使得动作捕捉即便在工业级动画制作中普遍应用,但从小型团队或独立创作者的角度看,其设备购置成本、数据处理的繁杂度和后期修正事宜还是主要挑战。跟着实时交互、VR和AR的逐步发展,传统数字人建模及动画制作方法在实时性上的不足日益明显,传统方法在动画调整以及角色建模进程中高度依赖人工操作,欠缺自动化适配的对应机制,难以契合实时渲染的需求,为了可在实时环境中运行,一般都需要额外进行LOD(LevelofDetail)方面的优化,也就是采用减少多边形数量或降低纹理分辨率的方式来提高渲染性能,这种优化办法往往会让视觉效果被舍弃,造成最终呈现的动画与模型质量下降,传统方法欠缺自动化生成及适配能力,无法迅速制作出符合不同风格、不同特征要求的数字人角色,阻滞了其在个性化应用场景中的广泛拓展。第二章AIGC算法驱动的数字人技术第一节AIGC算法驱动形象生成AIGC算法的快速进展使得虚拟角色生成变得高效又精准,带动了数字人技术在诸多领域的运用,尤其是在影视拍摄、电子游戏开发以及虚拟现实技术等板块,AIGC算法在形象生成方面的应用主要能分为基于图像、视频生成以及参数化模型生成,这两者不仅促使虚拟角色的生成效率提高,还能契合大规模、个性化的需求。一、基于图像和视频生成基于图像和视频生成的算法,其核心机制为输入多张真实人物高质量的图片或视频片段,利用深度学习模型开展特征抽取与模式辨别,学习且抓取人物的面部特征、表情细节以及动态行为模式,于是构建出高度逼真的虚拟角色形象,接着进一步优化其光照、阴影和材质方面的属性,跟传统建模方法不一样,该技术同样支持对生成的角色实施动态调整与优化,让其可以适应不同的场景与应用需求。VIBE[[]Kocabas,M.,Athanasiou,N.,&Black,M.J.(2020).Vibe:Videoinferenceforhumanbodyposeandshapeestimation.In
ProceedingsoftheIEEE/CVFconferenceoncomputervisionandpatternrecognition
(pp.5253-5263).][]Kocabas,M.,Athanasiou,N.,&Black,M.J.(2020).Vibe:Videoinferenceforhumanbodyposeandshapeestimation.In
ProceedingsoftheIEEE/CVFconferenceoncomputervisionandpatternrecognition
(pp.5253-5263).NeuralHumanVideoRendering[[]Liu,L.,Xu,W.,Habermann,M.,Zollhöfer,M.,Bernard,F.,Kim,H.,...&Theobalt,C.(2020).Neuralhumanvideorenderingbylearningdynamictexturesandrendering-to-videotranslation.
arXivpreprintarXiv:2001.04947.][]Liu,L.,Xu,W.,Habermann,M.,Zollhöfer,M.,Bernard,F.,Kim,H.,...&Theobalt,C.(2020).Neuralhumanvideorenderingbylearningdynamictexturesandrendering-to-videotranslation.
arXivpreprintarXiv:2001.04947.二、参数化模型生成参数化模型生成技术依靠定义多维参数空间来达成对数字角色外貌、体型及表情等特征的刻画,进而提升角色创建时的效率与灵活性,跟依赖视觉数据的生成模式相异,参数化建模利用数学模型对人体形态及运动作抽象描述,凭借参数调节可生成带有不同生理特征、性别属性以及面部细节的虚拟角色。SMPL(SkinnedMulti-PersonLinearModel)跟SMPL-X是其中较为典型的代表性模型,该类技术在影视制作的范畴内,尤其在要构建大量数字角色的场景中优势明显,譬如群演生成与复杂场景的角色搭配。参数化方法让制作团队可快速打造满足特定需求的数字角色集合,且支持对外观属性与行为模式做动态更改,该技术方案切实攻克了影视制作里大规模角色生成与实时调整的技术难题,在进行群体场景构建(比如战争场面、集会场景或体育赛事)时,极大提升了制作效率与创作自由度。图2.1MetaHumanAnimator在幕后处理捕捉设备所发送的数据图2.1呈现出,MetaHuman借助对真实人体样本开展3D扫描,搭建参数化的模型库,同时借助物理约束机制提升生成结果的逼真度,该系统供应多种可调节的参数,涉及到面部特征、生理特性、毛发样式以及服饰等,可实现多样化数字角色的创建。系统认可导入外部模型,用户可把自己定制的3D模型转换成参数化角色,且可借助内置工具做优化,从动画制作的角度看,系统采用了高效的面部动画方案,能迅速达成角色表情绑定,经由与主流3D引擎的深度结合,系统可把扫描数据、数字雕刻模型或传统建模成果转化成完整的参数化角色资产,MetaHumanAnimator借助消费级移动设备开展基础面部捕捉,而且可依照需求升级到专业级头戴设备,契合不同预算跟精度的需求,该分层技术方案大幅削减了数字角色创建及动画制作的技术门槛和费用。[[]/zh-CN/metahuman[]/zh-CN/metahuman第二节AIGC算法驱动的技术特点AIGC(人工智能生成内容)算法在虚拟角色构建中的运用,不只提升了制作速率,还在多个层面表现出它独特的技术长处,生成去对抗网络,GAN)[[]Goodfellow,I.J.,Pouget-Abadie,J.,Mirza,M.,Xu,B.,Warde-Farley,D.,Ozair,S.,...&Bengio,Y.(2014).Generativeadversarialnets.
Advancesinneuralinformationprocessingsystems,
27.]、可变式自编码器(VariationalAutoencoder,VAE)[[]Chen,Y.,Liu,J.,Peng,L.,Wu,Y.,Xu,Y.,&Zhang,Z.(2024).Auto-encodingvariationalBayes.
CambridgeExplorationsinArtsandSciences,
2(1).]、有着扩散属性的模型[[]Goodfellow,I.J.,Pouget-Abadie,J.,Mirza,M.,Xu,B.,Warde-Farley,D.,Ozair,S.,...&Bengio,Y.(2014).Generativeadversarialnets.
Advancesinneuralinformationprocessingsystems,
27.[]Chen,Y.,Liu,J.,Peng,L.,Wu,Y.,Xu,Y.,&Zhang,Z.(2024).Auto-encodingvariationalBayes.
CambridgeExplorationsinArtsandSciences,
2(1).[]Ho,J.,Jain,A.,&Abbeel,P.(2020).Denoisingdiffusionprobabilisticmodels.
Advancesinneuralinformationprocessingsystems,
33,6840-6851.一、高效性由于算力的升高,依靠大规模数据进行训练,AIGC模型彰显出了强大的学习能力以及在下游任务时出色的表现成效,可以在短时间迅速达成虚拟角色的生成,跟传统的手工建模以及逐帧渲染过程比起来,AIGC借助自动化生成行动极大缩减了制作周期。图2.2GAN模型GAN由判别器跟生成器一起组成,生成器以从潜在特征空间随机采样的方式,并不断锤炼其生成能力以逼近真实数据分布,处于对抗性训练机制当中,生成模块渐渐提高其输出水准,直至判别器在区分生成样本与真实样本方面存在难题,凭借对抗训练途径,GAN直接从数据分布里开展学习,生成高质量样本,避免了显式对复杂概率分布进行建模的麻烦。跟传统方法对比,GAN展现出更高的计算效率,变分自编码器(VariationalAutoencoder)作为一类概率生成模型,将编码-解码结构跟变分推理相融合,可以高效学懂高维数据的低维表示形态,且无需借助复杂的采样策略。该模型以优化变分下界,实现重构精度与泛化能力的平衡,在视觉内容合成、训练数据增添以及无监督特征学习等任务里表现出明显优越性,跟传统的生成对抗网络相比较,这类模型在视觉内容合成任务里展现出更优的稳定性与生成质量,已在计算机视觉、语言理解等多个领域达成突破性的进步。尽管现阶段AIGC的主要应用集中在图像与视频生成的任务,但跟生成模型的基本原理存在相似属性,AIGC算法成功降低了人工成本支出,还极大增进了创作过程的灵活性,使创作者能够在不太长的时间内迅速调整及优化角色设计,以跟上市场需求的快速转变,尤其是在像游戏开发、广告制作这类高度动态的创作情形中,AIGC大幅度增进了虚拟角色生成的效率与可操作性,进而提升了大规模数字内容生产的可行概率与应用范围大小。二、可扩展性AIGC算法的又一关键优势为其高度可扩展性,使其可以符合不同风格与复杂度的角色生成要求,经过整合多源数据集与先进算法,AIGC可创建具备多样化外观、表情及动作特点的数字角色,在影视创作范畴,AIGC可按照剧本条件,生成符合特定文化背景与艺术风格的角色形象;在游戏设计范畴,该技术可以构建契合不同游戏题材及用户审美的虚拟角色集合,AIGC的扩展能力冲破了传统创作方式的禁锢,不仅让角色设计的适应性变强,还大幅增进了数字角色的多样程度与定制化水平,进而更好地契合市场对多元化内容的要求。动画及特效影片制作正由数字影片走向人工智能引擎电影(mechinima,又叫做虚拟电影或游戏电影)变迁,体现出广阔的发展前景潜力,与预渲染动画不一样,无需额外去做设备、建模、动画、剪辑类的工作,只要借助游戏自身的引擎就可创作出多样的过场,中国影视制作公司正与好莱坞一起合作开发AI引擎电影,此趋势正重塑着电影的制作模式。[[]引擎电影,不同于预渲染动画,无需额外的设备,无需额外的建模、动画、剪辑工作,只需利用游戏自身的引擎就可以创作出各种过场[]引擎电影,不同于预渲染动画,无需额外的设备,无需额外的建模、动画、剪辑工作,只需利用游戏自身的引擎就可以创作出各种过场三、高精度AIGC算法凭借精细的图像识别与数据处理,可以精准捕捉与再现真实人物的表情、细微表情以及细致的动作状态,利用对海量面部表情及动作数据的训练,AIGC可生成极为逼真的虚拟角色及其动作,在情感表达范畴,AIGC甚至可制造出细腻的微表情改变与肌肉运动,实现数字人在面部表情、目光、细微动作以及语音同步等方面的高度精确模仿。为了实现高分辨率的输出,PIFuHD[[]Saito,S.,Simon,T.,Saragih,J.,&Joo,H.(2020).Pifuhd:Multi-levelpixel-alignedimplicitfunctionforhigh-resolution3dhumandigitization.In
ProceedingsoftheIEEE/CVFconferenceoncomputervisionandpatternrecognition
(pp.84-93).]基于PixelalignedImplicitFunction(PIFu)[[]Saito,S.,Huang,Z.,Natsume,R.,Morishima,S.,Kanazawa,A.,&Li,H.(2019).Pifu:Pixel-alignedimplicitfunctionforhigh-resolutionclothedhumandigitization.In
ProceedingsoftheIEEE/CVFinternationalconferenceoncomputervision
(pp.2304-2314).][]Saito,S.,Simon,T.,Saragih,J.,&Joo,H.(2020).Pifuhd:Multi-levelpixel-alignedimplicitfunctionforhigh-resolution3dhumandigitization.In
ProceedingsoftheIEEE/CVFconferenceoncomputervisionandpatternrecognition
(pp.84-93).[]Saito,S.,Huang,Z.,Natsume,R.,Morishima,S.,Kanazawa,A.,&Li,H.(2019).Pifu:Pixel-alignedimplicitfunctionforhigh-resolutionclothedhumandigitization.In
ProceedingsoftheIEEE/CVFinternationalconferenceoncomputervision
(pp.2304-2314).图2.3扩散模型依据图2.2所示,基于扩散过程的生成模型采用了渐进式的去噪策略,借助多步迭代,将简单的高斯噪声分布慢慢转化成复杂的目标数据分布,借此生成高质量的样本,该模型在训练阶段最先通过正向扩散过程给输入数据慢慢添加噪声,直至数据完全退化成为随机噪声;在生成阶段采用逆向去噪进程,借助已学习的噪声预测模型逐步消除噪声,最终复原出高质量的数据样本。该生成机制有能力有效捕捉数据的细节特征与复杂分布,因而在需要极高生成质量的相关任务当中体现显著优势,在影视特效制作工作里,其生成的高分辨率视频帧以及逼真的角色模型可大幅改善视觉效果,随着加速采样算法(以DDIM为例)和模型优化技术的不断成长,扩散模型的效率问题正渐渐得到优化,进一步挖掘了其在实际应用中的潜力。采用AIGC技术,让数字人在复杂光照状况、精细材质表现以及动态变化等方面的呈现变得更逼真,这项技术可实现对场景光照条件的智能分析,并凭借物理渲染或者深度学习驱动的方式达成效果,自动对光影映射、全局光照(GI)、环境光遮蔽(AO)等关键成分进行调整,从而使数字角色在不同光源出现变化时都能展现出合乎真实物理规律的视觉效果。AIGC利用深度学习模型生成高精度材质贴图,动态模拟诸如皮肤微细结构、衣物布料特质、头发光泽这类复杂材质,让数字人显得更加生动逼真,就动态情况的变化而言,AIGC依靠数据驱动的方式,可预测并生成更符合生物运动规则的动画,让数字人在表情变化、肢体动作以及肌肉运动等方面呈现得更自然、顺畅。该技术所实现的突破,为虚拟拍摄、数字化娱乐、游戏、电影特效、虚拟主播、VR/AR互动体验等诸多领域创造了更广阔的可能性,让数字人的应用不再仅仅局限于传统预设动画,而是可以做到更灵活、个性化的实时互动与内容制作,大幅增强沉浸体验的真实感。第三章AIGC算法驱动的数字人技术在电影制作中的应用第一节虚拟替身与特效角色数字替身(DigitalDouble)能替代真人演员完成高风险、难以达成的场景,在常规传统的拍摄阶段,剧组仰仗外貌相像的替身演员,这在一定程度上给特写镜头和长镜头的运用设了限,而跟着数字人技术的发展,数字替身的精度与逼真的程度不断升高,增添了视觉叙事的实现机会,在《速度与激情7》里,团队采用保罗·沃克生前影像资料来生成数字替身,再联合光线匹配、3D跟踪以及相机运动匹配技术,补全未拍摄的戏份,同时采用面部捕捉增强画面真实感,既表达了对演员的敬意,也保障了剧情的顺畅连贯。[[]刘笑微,肖婧澜,宋震.数字人技术在电影与数字内容领域的创新应用[J].现代电影技术,2024,(09):33-40.[]刘笑微,肖婧澜,宋震.数字人技术在电影与数字内容领域的创新应用[J].现代电影技术,2024,(09):33-40.图3.1《速度与激情7》保罗·沃克传统的大规模面部捕捉任务在拓扑处理阶段遇到了高昂计算成本,而且处理效率欠佳,就这一问题而言,以AIGC为依托的动态面部表情捕捉系统整合了深度学习、图神经网络(GraphNeuralNetworks,诸如GNN的技术,采用精准度高的头部对齐策略,自动生成拓扑结构契合的高质量面部模型序列,以此达成面部扫描数据的渐进式重拓扑优化。依靠AIGC优化拓扑结构,系统可在数据预处理阶段对拓扑布局进行动态调整,大幅提高拓扑效率,降低对人工干预的依赖,采用大规模预训练模型,依照不同个体的面部特征自适应调节拓扑网格,可做到更智能化的面部捕捉及重建,经过拓扑优化的模型在绑定环节依旧存在计算方面的瓶颈,拖累了整体制作效率。为进一步达成提升绑定效率的目的,高保真面部自动绑定技术把AIGC驱动的智能权重预测和法向量约束方法整合起来,采用软约束优化关节的具体位置,且借助自适应学习来动态更改关节变换矩阵,引入基于扩散模型的AI生成式平面法向量的约束手段,把权重更新过程做优化,有效防止传统数字人面部自动绑定算法在表情复现阶段可能出现的网格褶皱问题出现。第二节快速角色生成参数化建模技术、自动化生成工具跟人工智能生成内容(AIGC)开展深度融合,正在重塑大规模数字角色制作的格局,尤其是在群演角色的大批制作范畴,参数化方法利用定义多维可变动参数,能高效率产出多样化的角色资产。在需大量群演角色的复杂场景(如城市环境与战斗场景)之内,惯用的手工建模方法往往难以满足高效制作的诉求,尤其是当需要平衡角色多样性与精细度的时候,采用整合参数化建模与AIGC技术的方式,制作团队可达成更高效的角色创建流程。团队可先打造基础角色模板,然后通过调控面部特征、发型、服饰等参数,迅速做出多样化的角色,在这个过程里,AIGC技术采用生成对抗网络(GAN)或扩散模型等先进算法,可以自动生成极为精准的面部细节、发型、纹理以及服饰等,保证每个角色存有个性,还显得自然并贴合场景需求。跟传统手工建模的方式对比,此方法大幅削减了人工干预与制作时间,让大规模群演角色的生成过程更迅速、更高效,在影片《哪吒2》当中,此技术应用于生成大量呈现古代中国风格的群演角色,涵盖自动贴合角色的服饰、发型以及配饰等,虽说这些角色是大规模生成的,但借助参数化建模和AIGC的精准把控,每个角色的形象、动作以及情感表达都能维持独特性。制作团队可在极短时间里完成大量群演角色的打造,还能让角色的多样性与自然性得到保证,适应复杂场景里对大规模角色生成的需求,极大增进制作效率且压缩开支,这种技术的采用为电影、游戏及虚拟场景制作带来了颠覆性进展,给出了一种灵活性更佳、可扩展且高效的角色创作方案。基于AI驱动的微表情迁移技术凭借高效特点,可以迅速捕捉并重现角色脸部表情的细节,极大提升了数字角色面部动画的制作效能,传统的面部表情捕捉以及动画制作一般需要大量手动操作,涵盖逐帧调整与精细建模,这既占用时间又耗精力,还容易引起细节的丢失。而基于AI驱动的微表情迁移技术对真人演员的表情特征展开智能分析,并借助GAN实现精准的映射,不用人工干预,这一过程不只是自动化程度高,还能在不太长的时间内实现复杂微表情的再现,由此极大地提高了动画制作的效率,在《哪吒2》影片之中,申公豹讲“天命不可违”的那个时候,其嘴角那抹微妙的笑意是借助AI技术快速重现的,可迅速捕捉演员脸部的细微表情转变,并精准地映射到虚拟角色的脸上,这使动画角色的情感表达愈发细腻灵动,同时躲开了传统手工制作的繁杂操作,减少了时间跟成本的投放,采用这一技术,制作团队可在更短时间完成具有高精度的面部表情动画,为影视、游戏以及虚拟人物的制作给出更高效的处理方案。第三节交互创新数字人的智能化发展日益繁复,还呈现出数据、算法跟交互路径的多维式融合,拿用户跟超写实智能数字人的实时对话交互来说,其核心流程覆盖语音、文本、情感、视觉等多个层面内容,以造就自然、沉浸的交流体验感。处于数字人交互系统的技术架构里,语音到文本的转化是首要环节,该流程借助自动语音识别(AutomaticSpeechRecognition,ASR技术把用户的语音信号转成文本数据,ASR系统一般会有前端信号处理,以实现不同环境和口音条件下的高识别准确率,转换后的文本稍后被输入到自然语言处理(NaturalLanguageProcessing,NLP模块里侧。NLP模块主要的工作是意图理解和语义解析,采用分类模型或序列标注去识别用户需求,且依靠依存句法分析、语义角色标注等技术提取关键内容,与预训练语言模型(如BERT、GPT)结合,提升解析的精准度,解析做完之后,大语言模型(LLM)依据解析的结果生成契合语境的回复,同时凭借情感分析识别用户的情绪类别,灵活调节语气、措辞以及表达样式,以提高交互的个性化水平。文本转语音(TTS)技术把文本转化成自然语音,当下的TTS模型(例如Tacotron、WaveNet)可产出接近真人语音的合成音频,生成式AI动画算法依据对话及情感状态,引发数字人出现面部表情和肢体动作,把FACS跟运动捕捉技术进行结合,保障非语言表达的真实水准。为改进交互的自然水平,AI可实时调控语速、语调及微表情,再基于多模态融合联合对语音、文本及视觉信息进行建模,若用户正情绪焦虑,系统可放慢说话的速度、柔化说话语调,随之生成可安抚情绪的表情,以收获更智能、人性化的交互反馈。3D实时渲染技术把语言和非语言表达融合为一体,造就完整的交互场景,此流程一般依靠神经辐射场(NeuralRadianceFields,NeRF)也或基于物理属性的渲染(PhysicallyBasedRendering,基于物理的渲染技术,数字人可在不同光照与环境条件下呈现高度逼真的动态效果,NeRF借助神经网络对场景光场进行建模工作,可生成质量上乘的光影效果,而PBR借助模拟光线与材质的物理相互作用,进一步强化渲染的真实质感,这些技术相结合,极大提升了用户的沉浸式体验,让数字人交互呈现更自然生动。第四节提升沉浸体验基于AIGC的数字人技术能显著增进虚拟角色的表现力,尤其是在表情跟动作的真实呈现方面,采用深度学习和大规模数据开展训练,AIGC能准确捕捉并仿效人类面部表情及身体动作的细微变动,使虚拟角色的情感表现更显自然真切,这种高精准度的表情与动作不仅充实了角色的情感层次,还可借助动态变化精准体现角色的内心状况与情感起伏,进而强化观众对角色的认同感与代入体验,在观赏影片或跟虚拟角色互动之际,观众能察觉到角色的情绪波动和行为反馈,这种沉浸式体验明显强化了情感联结与互动功效,让虚拟角色从纯粹的数字影像转变成为具有生命力与情感共鸣的存在。图3.2《哪吒2》在传统动画制作期间,角色的运动靠手动去调节骨骼的权重,而《哪吒2》开发了以深度学习为基础的AI骨骼动力学系统,该系统凭借学习300万组武术动作数据,可自动生成肌肉收缩以及皮肤褶皱的物理反馈,使角色的动态呈现更显自然,处于哪吒腾空劈砍的时刻,AI实时算出胸锁乳突肌的拉伸以及三角肌的收缩,还模拟汗液呈现出的表面张力,由此强化了生理上的真实感,呈现出更好的视觉体验感。[[]李瑞璐,林婧.《哪吒2》百亿票房背后的数字盛宴[N].人民邮电,2025-02-20(005).DOI:10.28659/ki.nrmyd.2025.000309.[]李瑞璐,林婧.《哪吒2》百亿票房背后的数字盛宴[N].人民邮电,2025-02-20(005).DOI:10.28659/ki.nrmyd.2025.000309.AIGC技术生成的数字人不仅能呈现复杂的面部表情,还能模拟出极为协调的肢体动作,依靠动作捕捉与AI算法相结合,虚拟角色的肢体动作可以跟面部表情、语音、眼神等元素实现高度的契合同步,使角色的表现更为协调、流畅与自然。这种精准的肢体动作与表情协作,让虚拟角色的行为更具可信性,于是让观众更方便地建立情感纽带,进一步拉高观影体验的质量,经由优化虚拟角色的情感表现与行为回应,AIGC技术不仅拉高了观众的沉浸感,也推动了虚拟角色与现实人物之间情感共鸣的加剧,进而在娱乐产业里开拓了新的创作与展现空间。第四章基于AIGC算法的数字人技术在电影中应用的优劣第一节优势分析一、降低成本遵照2.2.1里的说明,借助AIGC算法的数字人技术,在电影制作里显著提升了效率,且明显降低了成本,由英国生成式AI企业Metaphysic推出的MetaphysicLive,可以按照演员的现场展示,立刻生成高分辨率又逼真的换脸和去老化效果,无需额外做合成以及视觉特效(VFX)处理,该技术会以30FPS速率流式传输AI生成的逼真内容至现实场景里。在电影《Here》拍摄工作开展期间,MetaphysicLive让现场演员的表演直接推动超真实的换脸及去老化效果,大幅压缩制作周期,剧组同时开展对两台监视器的监看,一台呈现演员原本样子,另一台展示符合场景需求的年龄模样。Metaphysic依靠训练基于汉克斯和怀特既往影像数据的定制机器学习模型,开发出一套面部修改系统,该系统拥有庞大的面部动作、皮肤纹理以及不同光照与拍摄角度下外观的数据集,由此生成的模型可立刻完成面部变换,躲开了传统CGI所依赖的数月人工后期制作方式。跟以往逐帧做调整的减龄技术不一样,Metaphysic借助对面部特征点的分析,并把这些特征映射到训练好的年龄变化模型里面,实现瞬间变换成效,2019年《双子杀手》电影采用类似技术,经过两年时间才完成,展现出AI赋能电影制作的高效率。AIGC技术借助降低人工介入,极大缩短角色生成时长,传统数字人制作借助复杂的手工建模及反复调校,而AIGC会自动生成面部特征、衣饰及动作,使角色创作的效率与精准性增强,依托该技术,制作团队可在短期内完成多个数字人角色的塑造,以贴合紧张的制作时长,AI生成的流程十分高效,不仅增进了生成质量,降低人工差错,还降低了返工跟调整的需求,进而切实把控生产成本。AIGC应用并非只局限在角色建模上,还能在诸多方面对制作过程做优化,借助深度学习跟大数据驱动的优化算法,AIGC有本事自动调整光照、材质以及动画细节,保证数字角色在不同场景的时候具备高度的真实感与表现力,此技术可迅速对不同拍摄条件的变动做出响应,自动对细节实施优化,减少了人工对光影、材质和动画等多重方面的调整工作,极大提升了做事效率。AIGC凭借可扩展性能够适应多种影视题材的需求,不管是科幻领域、奇幻领域还是历史题材,AIGC可依据不同叙事风格迅速生成契合剧情要求的角色形象,科幻影视里的未来人类角色跟历史戏剧里面的古代人物,均可在短时间内借助调整参数和训练数据集生成,保证角色形象跟整体故事的风格相统一,这种灵活性以及扩展性不仅让制作效率提高,还极大地扩充了团队在项目里的创作自由范围,同时为各类影视制作给予了有力支撑。二、丰富艺术表现手段AIGC不光加快了电影工业化的技术升级,还为影视叙事内容的多样化发展给出了新想法,撑开了视听语言构建的创新空间尺度,创作者可冲破物理上可实现的限制和经济上可行的限制,依靠数字虚拟角色打造更繁杂多样的角色与场景,为观众奉上新颖且逼真的视觉体验,这种虚实混合的创作模式不仅增进了影视剧情的表现力,还切实提升了观众的参与度及沉浸感。图4.1《蜘蛛侠:英雄无归》章鱼博士在漫威电影《蜘蛛侠:英雄无归》(Spider-Man:NoWayHome)影片里,利用AI技术让阿尔弗雷德·莫里纳(饰演章鱼博士)和威廉·达福(饰演绿魔)看上去更年轻,采用AI技术,电影可让演员的脸回到当年饰演章鱼博士时的情形,同时保证面部表情自然以及与动态光照相契合,与传统CGI实施面部重塑相比,AI技术让面部年轻化效果更真实,使观众更顺畅地接受他依旧是2002年的绿魔,而并非一个“电脑拼凑合成”的角色。该技术不仅让角色更贴合早期电影中的模样,同时极大地扩大了电影的艺术表现范畴,跟化妆或传统CG用来还原年轻形象可能产生的“违和感”比,AI凭借分析大量过去的影像数据,精准再现演员年轻时的五官、皱纹与动态表情,让其与早期电影当中的形象高度一致。AI换脸技术冲破了时间的束缚,让过去和现在的角色得以共存,为电影叙事赋予更多可能性,同时还让电影的艺术表现形式得到进一步拓展,它不仅提升了角色塑造的逼真程度,还为演员赋予更充裕的表演自由范畴,让情感展现更为自然活泼,从而增进观众的沉浸体验感。第二节局限性分析一、恐怖谷效应1970年,由日本机器人科学家森政弘(MasahiroMori)提出了恐怖谷效应(TheUncannyValleyEffect),即当机器人、数字人的外貌与举动逐渐逼近现实中的人类时,观者的情感共鸣度刚开始会随着相似度变大而增强。要是相似度达到某个临界点以后,也就是当虚拟形象已十分逼近真实人类,可还是存在细微不自然之处时,这些违和感会被进一步放大,造成观者强烈的不适反应,甚至产生惧怕心理,该现象在机器人技术、计算机图形学、虚拟现实以及电影特效领域普遍可见,影响着人工智能驱动的数字人角色和社交机器人在实际应用中的被接纳程度。[[]帅可.恐怖谷效应下机器人动画角色设计边界研究[D].四川美术学院,2023.DOI:10.27344/ki.gscmc.2023.000170.[]帅可.恐怖谷效应下机器人动画角色设计边界研究[D].四川美术学院,2023.DOI:10.27344/ki.gscmc.2023.000170.说到恐怖谷效应的心理学机制,有的研究认为它跟非人化的认知过程紧密相关,所谓非人化,是个体在对他人进行感知时弱化或否定其人性特征,此现象时常伴有厌恶情绪,有概率引发回避或排斥相关行为,从进化心理学的角度去分析,人类对生理异常的本能抗拒属于适应机制范畴,这种厌恶反应可助力个体在进化过程里躲避潜在的生物威胁。而恐怖谷效应说不定是此机制的延伸情形,即当一个高度接近人类的对象在外观或行为上呈现细微但显著的不一致状态时,观者的大脑难以把该对象归类为纯粹人类或非人类,由此出现认知上的冲突状况,此现象体现出拟人化与非人化认知之间的复杂相互影响:当数字人的外观及行为十分接近真实人类却未完全契合时,观者大概会在潜意识里将其归类到“非人”范畴,进而激起本能性的抗拒或害怕反应。[[]杜严勇.恐怖谷效应探析[J].云南社会科学,2020,(03):37-44+187.[]杜严勇.恐怖谷效应探析[J].云南社会科学,2020,(03):37-44+187.伴随动作捕捉与面部捕捉技术不断提升,虚拟角色的动态表现已然达到极高的精细级别,促使其在游戏、电影和社交媒体等领域被广泛运用,即便采用最先进的AIGC技术,在处理数字人的情感表达、肌肉运动以及肢体协调性时,也许会出现不易察觉却影响体验的小瑕疵,尤其是在复杂表情展现或微表情转变方面更为明显,这些细微的不自然现象成为恐怖谷效应的关键诱发点,造成数字人在某些情境下还是难以得到完全的认同,如何打破这一心理壁垒,让数字人形象更自然可信,依旧是人工智能、计算机图形学和交互设计领域的关键研究方向。二、成本与资源局限性AIGC技术极度依赖高性能硬件设备(像GPU集群这样的)和专业软件工具,这为中小型企业和个人开发者构成了明显挑战,在大规模渲染或是复杂计算任务的阶段里,硬件性能直接掌控着生产效率与输出质量,尤其是在实时渲染的范畴内,高质量的渲染不光需要强劲的硬件支撑,还牵扯复杂的光照模拟、物理效果计算以及高精度模型处理,这些因素说不定会引起计算性能瓶颈,引发延迟问题或帧率出现下降。其制作成本高昂得很,在建模、渲染、动作捕捉以及人工智能训练等多个环节皆有体现,高精度动作捕捉设备、3D扫描仪,以及用于精细渲染和数据处理的高性能计算硬件,费用极为高昂,比如精细的动画构建、面部表情的调整完善以及AI训练对计算资源的消耗极多。为了降低中小微企业和个人开发者的压力,行业应探索出更高效的解决途径,采用优化算法削减计算资源消耗,也可利用云计算平台给出分布式渲染服务,以此降低对本地硬件性能的依赖度,还能开发性价比更高的动作捕捉设备以及简化工作流程的工具。三、伦理与社会问题人工智能生成内容(AIGC)时代的艺术创作呈现出跟传统数字化艺术大不相同的特征,包含智能化制造、高效产出、内容多样、个性化定制以及随机创作等特点,这个新兴领域还面临着严峻的隐私跟数据安全挑战,在数字人创作的过程里,一般要采集真实人类的面部特征、肢体动作以及语音数据,该过程存在个人信息泄露与不规范运用的风险,包含但不限于伪造证据、网络诈骗这类违法活动。从法律的层面考量,数字人技术存在复杂的权益方面问题,当数字人借鉴真实人物的外貌特征及语音时,说不定会引发肖像权、声音权以及知识产权等方面的争端,要把这些法律问题解决,得建立新的规范体系,就社会接纳的角度而言,数字人技术面临文化差异与心理障碍的双重难题。因为语言表达、面部表情以及行为方式方面存在文化差异,各地区对数字人的接受程度也许存在明显差异,有一部分人对高度拟人化的数字人呈现出明显抵触情绪,尤其是在情感交流或替代人类角色的应用场景里,这种心理上的不适或许会对技术的推广与应用成效产生影响,技术发展与应用推广过程中,需要充分考虑这些社会心理因素。需要明确人工智能在艺术范畴的应用边界,尤其涉及数字人形象和声音的所有权跟使用权问题,需在对社会伦理和人类价值予以尊重的基础上,明确人工智能设计者、艺术工作者、使用者以及政府机构等各方的道德义务,防止出现伦理方面的偏差。应加快艺术行业在科技伦理政策上的创新,确定人工智能艺术的合理应用范畴及伦理禁区,应借助打造良好的创意生态,充分挖掘创意阶层的主体性价值,动态把控人工智能艺术的人文伦理边界,依托文化本位根基,推动机器智能走向人文化,服务于人类的幸福。[[]解学芳,林舒原.AIGC时代人工智能艺术创新机理与AI价值对齐[J].数字文化产业研究,2024,(01):3-25+2.[]解学芳,林舒原.AIGC时代人工智能艺术创新机理与AI价值对齐[J].数字文化产业研究,2024,(01):3-25+2.第五章未来发展与展望第一节技术发展方向处于数字人技术的不断演进里,提升精度成为核心研究方向,采用更大体量的数据训练和更领先的算法优化,数字人生成的真实程度得到明显提高,大规模数据训练使模型得以从更繁杂多样的样本中学习,从而更精准
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 2025年气候类型判断中的电商直播碳优化
- 基于大数据的药物疗效评估
- 2025年中国眼科医疗行业市场研究报告 硕远咨询
- 2026 年中职掘进技术(隧道开挖)试题及答案
- 维修电工试题及答案
- 城市轨道交通给排水系统及检修课件 第1讲 给排水系统概述
- 朝鲜高考中文试卷及答案
- 茶艺师理论测试题及答案
- 美术批发合同范本
- 做止水钢板合同范本
- 法律诊所(第三版)课件全套 第1-10章 入门、会见-调解
- QC工作流程图模板
- 电梯维保服务投标方案
- 4继电控制线路故障检测与排除
- 国家开放大学《公共部门人力资源管理》期末机考资料
- 大学生职业规划与就业指导知到章节答案智慧树2023年广西中医药大学
- GB/T 20969.2-2021特殊环境条件高原机械第2部分:高原对工程机械的要求
- PMBOK指南第6版中文版
- 快速记忆法训练课程速读课件
- 步战略采购方法细解 CN revison 课件
- 酒店装饰装修工程施工进度表
评论
0/150
提交评论