Emu Video是一种基于扩散模型的简单文本到视频生成方法,将生成过程分解为两个步骤:首先根据文本提示生成图像,然后根据提示和生成的图像生成视频。分解生成方式能够高效训练高质量的视频生成模型。与以往的方法相比,只需使用两个扩散模型即可生成分辨率为512像素、播放速度为每秒16帧、时长为4秒的视频。
需求人群:
"可以应用于广告制作、教育培训、多媒体创作等场景"
使用场景示例:
使用Emu Video生成广告宣传视频
使用Emu Video制作教育培训视频
使用Emu Video进行多媒体创作
产品特色:
根据文本生成高质量图像
根据文本和生成的图像生成高质量视频
高效训练视频生成模型
AniPortrait是一个根据音频和图像输入生成会说话、唱歌的动态视频的项目。它能够根据音频和静态人脸图片生成逼真的人脸动画,口型保持一致。支持多种语言和面部重绘、头部姿势控制。功能包括音频驱动的动画合成、面部再现、头部姿势控制、支持自驱动和音频驱动的视频生成、高质量动画生成以及灵活的模型和权重配置。