马上注册,加入CGJOY,让你轻松玩转CGJOY。
您需要 登录 才可以下载或查看,没有帐号?立即注册
×
Emmm,又要快到一年一度SIGGRAPH的日子了。SIGGRAPH 2018将于8 月 12-16 日在加拿大温哥华举行。有的小伙伴会说,这不是还有好几个月呢么?没错是还有些日子,但最近我获悉了一些将在这次大会上展示的最最前端的技术展示。 那都会展示些什么牛逼的技术呢?在这里大致说几个,比如:用于模拟液体织物相互作用的多尺度模型、高保真面部反射与无约束图像的几何推理、DeepMimic:基于物理角色技能的示例指导深化强化学习、透明物体的全3D重建等等等等,大概有八九十个吧。在接下来的日子,CG世界会挑选其中典型的几个为大家分解。 今天就带大家了解的就是其中一项名为“四足动物运动自适应神经网络”的技术。看见这生涩的词汇估计大家也一脸懵像。下面我拆解开为大家讲述下。
四足动物动画是我们行业中未能得到很好解决的关键问题之一。平时大家在做四足动物动画时必须通过特殊培训来设计各种复杂的动作,然后利用各种DCC软件进行Key帧或者对动物进行动作捕捉。前几天还看了一篇关于用马进行动捕的文章。那么这几种方式要么效率低,要么不精准。 四足动物运动的随机性决定动画制作的复杂性。它不同于人类运动,因为人类运动可受控数据采集。所以,目前还没有系统的以数据驱动的方式构架四足动物运动的控制器。
为此,来自英国爱丁堡大学的HE ZHANG、SEBASTIAN STARKE、TAKU KOMURA和Adobe研究员JUN SAITO一起研发了名为“用于四足动物运动控制的模式自适应神经网络”的技术并发表了一篇论文和相关演示。第一位好像是我们中国人,但是查了很久没找到具体介绍。有知道的小伙伴可以介绍下。
这个新方法与传统的关键帧动画不同,是一种称为模式自适应神经网络的实时四足运动合成的新方法。 系统以非结构化运动捕捉数据以端到端的方式进行训练,而不需要相位或运动步态的标记。 这个系统可用于制作游戏和电影中的自然流畅动画,达到的质量可实际应用, 是可以在Unity 3D引擎和TensorFlow中执行的▼ 手动Key帧我们就不说了。那么说起四足动物动画生成,有的小伙伴还会想起用捕捉实现。但捕捉的动画是非结构化的,而且随机动作太广泛了。捕捉的数据大家都知道不是很精准,动作存在很多噪波。细节地方还需要后期修正。▼
还有一种是通过标准神经网络生成的动画,但会产生失真和明显的滑步。▼
相位函数神经网络的方式生成。优点是动作精准,但是当两个动作进行融合插补时动作僵硬,而且操控不是那么灵敏。▼
而爱丁堡这几位大神提出的“运动控制的模式自适应神经网络”是一种新颖的端到端学习架构。它是将系统学习,优化和混合的一组权重一并“交给”一个神经网络,就像人一样有思考力。这个神经网络成为专门针对特定运动调整的“专家”,这位专家会动态的调整运动再结合门网和混合系数以适应当前的运动状态。接下来就可以用这个理论方法实施训练任务了。▼
然后用这种方式对一个四足动物进行训练,这里用了一只可爱的哈士奇,不,你也可以称之为狼。这些训练包括坐、躺下、行走、来回走、小跑等等。▼ 训练完了,你就可以把它扔在一个地方,用键盘或者其他设备实时控制它了。你可以看到这些动画非常的自然,无论如何急停,转弯以及跳跃都非常的流畅。与手Key关键帧动画精度相差无几,关键人家还是实时自动融合转换,动作间衔接非常好。▼
下图中左侧展示了在给定速度下产生不同运动模式的脚步模式
在固定线路上的精准度测试。我们可以看到这只哈士奇的步幅很严格的按照曲线在走,几乎没有什么偏移曲线的地方。▼
之后,大神们还展示了这种方法与标准神经网络和相位函数神经网络动画之间的明显差异。左侧红色第一个为标准神经网络生成的动画;中间红色为相位函数神经网络生成的;右侧蓝色为这次的新方法,很明显左侧红色的两个动作僵硬,有滑步、失真严重。▼
好了,下面我们整体看下视频是如何展示的吧。弄了一晚,翻译了加了中文字幕。
(转自CG世界)
原帖地址 https://mp.weixin.qq.com/s/M4wnpUa71v3WocJxPxdL-g
|