DreaMoving

DreaMoving

DreaMoving简介

DreaMoving,一种基于扩散的可控视频生成框架,用于生成高质量的定制人类舞蹈视频。具体来说,给定目标身份和姿势序列,DreaMoving 可以生成目标身份在姿势序列驱动下在任何地方跳舞的视频。为此,我们提出了一个用于运动控制的视频控制网络和一个用于身份保留的内容指南。所提出的模型易于使用,并且可以适应大多数风格化的扩散模型以生成不同的结果。

DreaMoving项目地址:https://dreamoving.github.io/dreamoving

DreaMoving---dreamoving.github.jpg

DreaMoving 概述:

Video ControlNet 是在每个 U-Net 块之后注入运动块的图像 ControlNet。Video ControlNet 将控制序列(姿态或深度)处理为额外的时间残差。Denoising U-Net 是一种衍生的 Stable-Diffusion U-Net,带有用于视频生成的运动块。内容导览器将输入文本提示和外观表达式(如人脸(布料是可选的))传输到内容嵌入中,以便交叉注意。

结果:

DreaMoving 可以生成高质量和高保真度的视频,给定指导序列和简单的内容描述,例如文本和参考图像作为输入。具体来说,DreaMoving 通过人脸参考图像、通过姿势序列进行精确运动操作以及由指定文本提示提示的全面视频外观控制来展示身份控制的熟练程度。

如果你想要更深入地了解关于智能资讯的内容,可以查看 智汇宝库,这是一个提供智能科技领域最新资讯的网站。
在这个过程中,你可以探索各种智能技术的发展动态,了解智能科技领域的最新进展和趋势。