【AI】阿里大模型AI角色动画框架Motionshop试玩

留待舞人归 2024-06-20 15:31:02 阅读 78

在GitHub上发现一个挺有意思的仓库,一看是阿里通义XR实验室出品的,感觉还挺有意思,这里试玩一下。

一、仓库介绍

这里是仓库地址:Motionshop

据官方网页介绍,这个AI工具的工作原理大致如下:

在这里插入图片描述

人物检测

通过将文本信息与现有的闭集检测器使用基于Transformer的框架进行紧密融合,零样本目标检测也能够表现良好。感兴趣的目标候选者通过一种开集目标检测方法进行检测,随后采用主导选择方法确定最终的目标区域。

分割与跟踪

一旦目标成功检测,像素级目标区域将通过视频对象分割跟踪方法进行跟踪,该方法由广泛使用的零样本分割方法(Segment Anything Model,SAM)初始化和精化。与直接使用SAM相比,时间对应关系被提升,以更好地处理视频分割任务。

修补

剩余的图像区域通过视频修补完成。具体而言,采用了循环流完成以恢复受损的流场,采用了在图像和特征领域上进行的双域传播,以增强全局和局部的时间一致性,此外,考虑到仅使用令牌的子集,提高了效率,减少了内存消耗,同时保持性能。

姿势估计

给定角色视频序列,应用姿势估计方法CVFFS来估计稳定的人体姿势。SMPL人体模型用于表示3D人体,这是一种广泛使用的参数化模型,用于人体形状和姿势估计。

动画重定向

估计的形状和姿势被映射到所选的3D模型上。然后,该模型可以像原始视频中的角色一样自然而流畅地播放。即使原始角色和新模型之间存在显著差异,也能取得满意的结果。

光照估计

当新的3D模型替换感兴趣的角色时,光照条件需要与原始视频保持一致。我们应用光照估计来更好地整合新的3D模型和原始场景。未来,我们还将使用光照估计进行阴影。

渲染

使用路径追踪渲染引擎TIDE来渲染新的3D模型。它与精确的材料系统相结合,辅以运动模糊、时间反锯齿和时间去噪等算法。这个引擎将逼真性与速度结合起来,为用户更有效地获取视频奠定了坚实的基础。

合成

最后,渲染的图像与原始视频合成,生成最终的视频。

(注:以上信息来自官网,由GPT翻译)

二、试玩

从Bilibili找到一小段舞蹈小视频,视频要求不超过15s。上传完成之后,模型会识别出里边的人物并框出。

在这里插入图片描述

底下可以选择几个角色形象,选择完成后点击生成视频,右侧会显示排队中。等待完成即可。

以下是使用可莉的结果:

在这里插入图片描述

以下是使用旅行者荧的结果:

在这里插入图片描述

Gif图太大了,图中的模糊都是因为压缩导致的,原视频是没有这个问题的。原视频:

可莉

三、感想

可以看到,角色动作被完整的捕捉下来,视频的背景也被完整的保留下来。美中不足的有两点:

1、排队等待时间太长了

2、渲染本身好像有点问题,有个黑色的辫子穿模

但是不得不说,现在AI的效果真的挺厉害的。



声明

本文内容仅代表作者观点,或转载于其他网站,本站不以此文作为商业用途
如有涉及侵权,请联系本站进行删除
转载本站原创文章,请注明来源及作者。