
近日放出的《黑神话:钟馗》短片中全程为剧情CG画面,不包含战斗及探索等,可以看做新作的物理引擎、光影渲染、面部捕捉等技术的一次阶段性成果展示。
目前《黑神话:钟馗》厨娘脸模已有网友@满月77认领,她在其他用户询问时称:自己参与了《黑神话:钟馗》面部捕捉,但动作捕捉并不是自己,还需要交给更专业的老师去做,后续有机会参与动捕也会分享给大家看的。
目前面部捕捉技术已经应用在很多行业,电影、电视剧、游戏中的虚拟形象,在捕获了演员的面部表情动作后,通过调整、渲染、合成从而达到想要的效果;另外现在出现在各个社交平台的虚拟偶像也是面部捕捉技术的应用场景之一。
面部动作捕捉,有时也被称为面部表情捕捉。它是动作捕捉技术的一部分,指使用机械装置、相机等设备记录人类面部表情和动作,将之转换为一系列参数数据的过程。
说到面部捕捉,那自然就不得不提FACS——Facial Action Coding System (面部动作编码系统)了。
别看带着“编码”这个词,但FACS的诞生和程序员基本上没半点关系:起初,一个瑞典的解剖学家 Carl-HermanHjortsjö 建立了这套理论体系,之后又由大名鼎鼎的心理学家保罗·艾克曼和华莱士·V·弗雷森延用,于1978年正式问世。
保罗·艾克曼自己在采访时表示,这套编码系统是一种“精确描述到底是什么产生了表情”的方式。
我们脸上的肌肉有43块,艾克曼站在解剖学家的肩膀上,花了足足八年时间,把面部的各个部位划分成了各个运动单元AU(Action Units)。
每一个部位(人中,鼻翼甚至上眼睑)都留有姓名;不同的动作(比如收紧,平展,拉长等)都被详细记录在案。AU由编号和名字组成,你做出一个怪表情,被快门抓拍下来,已经不知道能画出多少个圈圈了。
毕竟,各种各样的运动单元组成活灵活现的表情,即使是在同一张脸上,所能产生的表情也是千变万化。每一个生动的表情,都投射出一个真实的你。
虽然保罗·艾克曼他老人家不用编程,但现在延用这套编码理论的苦逼后生仔里,微秃程序员可就要占相当大一部分了:用算法来进行AU的提取,在计算机视觉(或者放大一点说,机器学习)领域不算冷门。
至于影视剧特效制作里,对演员进行面部扫描和肌肉绑定,也离不开这套理论做基础。
再搭配面部采集率高达95%的头盔,你就能在游戏真人版里看见无缝衔接,打斗也感受不到面瘫痕迹了。
近年来,很多CG 电影、大型游戏,都开始运用面部捕捉技术来完成虚拟角色的合成。
面部捕捉技术通过扫描人的面部运动,将真人的表情转换为数据,并重新将这些数据进行排列、控制,使虚拟角色能像真人演员一样动起来,又同时保留自己的虚拟特质。
如今使用iphone和UE5就可以实现低成本的实时表情捕捉,也有专业的studio snapperstech,使用自己开发的插件来为影视、游戏公司做精密的虚拟人物生成项目。
)
)
)
)

)
)
)

)
)
)
)

)
(nasa高科技))