一个统一的可控视频生成方法,它能够实现在不同条件下精确且一致的视频操作,包括相机轨迹、文本提示和用户动作注释。
Cooraft是一个由Dzine.ai提供支持的全能AI设计平台,它能够在浏览器中为用户提供一系列创新的摄影和设计功能。
Vidu1.5是由生数科技开发的一款高级AI视频生成平台,能够根据文本、图片或视频输入生成具有高度一致性和动态性的视频。
Animode是阿里推出的AI动漫视频创作工具,基于3D技术帮助用户创建具有真实感的二次元角色和高质量视频效果。
Wonder Dynamics是一款强大的视频编辑和动画制作软件,旨在为用户提供专业级别的视频处理能力。
KREA是一个致力于简化AI生成过程的工具,它提供了易于使用的界面和丰富的功能,旨在帮助用户轻松创建各种AI生成的应用和图像。
Creatify是一个利用人工智能技术帮助用户创建引人入胜的视频广告的工具。用户只需输入产品链接或上传自己的视觉素材和描述,Creatify就能自动生成视频广告。
一款由快手与北京大学联合研发并开源的视频生成模型。该模型利用深度学习技术,能够实现高质量的视频生成和处理,为用户提供了一种创新的视频内容创作工具。
Pika 1.5是由Pika Labs开发的最新人工智能视频生成工具,旨在通过一系列先进功能和工具提升视频创作过程。
一款元宇宙版Sora的AI视频生成模型,可一键创作高质量视频、配音、编辑剪辑,甚至将个人照片变成个性化视频。
一款生产力产品,旨在通过AI技术提升工作和学习效率。
“神笔马良”是猫眼娱乐发布的AI工具,能够将长剧本一键转化为视听化呈现的动态故事板。
Pixels Dance 是一个在线工具,用于创建和分享CSS动画。
个性化解决方案,旨在生成一系列图像时保持多个角色场景中人物的面孔、服装、发型和身材的一致性,从而创建连贯的故事。
FAL.AI 是一个专注于AI生成音频、视频和图像的云平台,通过其强大的技术吸引了大量开发者和企业客户。
一款基于阿里云人工智能技术的创意绘画工具,能够自动生成多样化的艺术作品,满足用户对于国潮、水墨、原画等多种风格的需求。
CloneAI是一款利用AI技术将视频和照片转化为视觉震撼艺术作品的手机应用。
ControlNext是一款强大的自动化控制系统设计与仿真平台,专为工程师和科研人员设计,用于快速搭建、测试和优化自动化控制策略。
Glif是一个全面的无代码AI沙盒平台,支持构建AI工作流程、应用程序、聊天机器人及更多内容,提供多样化的创意与实用工具。
SkyReels是全球首个融合3D引擎与生成式AI的视频创作平台,能够将用户的想象即时转化为生动的视频内容。
Tavus是一个先进的AI视频个性化平台,利用AI技术为观众创建具有不同语音和视觉变量的个性化视频。
Clapper是一款开源的AI视频生成与编辑工具,它通过集成先进的AI技术,为用户提供了一键生成图像、视频、语音和音乐等素材的便捷功能,极大地简化了视频制作的流程。
Stable Video 4D(SV4D)是由AI公司Stability AI推出的首个视频生视频模型。该模型能够将单个物体的单视角视频输入,转换成8个不同视角的多视角视频,为用户提供全视图3D动态视频体验。
清影 AI 视频生成服务是一个基于人工智能技术的创新平台,专注于通过智能算法快速生成高质量的视频内容。该服务以其高效、便捷和个性化的特点,适用于多种行业和场景,满足不同用户的需求。
OpenAI在官网发布了最新大模型GPT-4o mini,具备文本、图像、音频、视频的多模态推理能力。
EchoMimic是一款由蚂蚁集团研究团队推出的创新技术,能够根据音频内容和角色照片生成生动对口型视频。该技术突破了传统方法的局限性,实现了更逼真和动态的人像生成。
可灵AI是快手推出的新一代AI创意生产力平台,专注于为用户提供创意内容的生成与编辑服务
“寻光”是由阿里达摩院开发的一站式AI视频创作平台,它在2024年上海世界人工智能大会上亮相,并引起了广泛关注。该平台旨在通过人工智能技术,提供全新的视频创作模式,重塑传统视频制作的全流程。
MimicMotion是腾讯公司推出的一款人工智能人像动态视频生成框架,该框架利用先进的技术,能够根据用户提供的单个参考图像和一系列要模仿的姿势,生成高质量、姿势引导的人类动作视频。
VIMI 是由商汤科技推出的全球首个可控人物视频生成大模型 AIGC 产品。
viggle.ai是一个基于人工智能的角色动态视频生成工具。它采用名为JST-1的视频-3D基础模型,赋予静态图像或视频中的角色以生命般的动态表现。Viggle.ai以其创新的功能和直观易用的界面,为创作者们提供了无限创意的可能性。
Hedra是一个集成先进AI视频模型的创作实验室,专注于通过生成模型为下一代人类叙事提供动力。其主打产品Character-1能生成具有表现力和可控性的人类角色视频,旨在帮助用户构建虚拟世界和讲述故事。
RunwayML推出了Gen-3 Alpha,这是一款用于高保真、可控视频生成的新型模型。它是Runway基于为大规模多模态训练而构建的新基础设施训练的首批模型之一,与Gen-2相比,在保真度、一致性和动作上都有显著提升,是构建通用世界模型的重要一步。
WorldDreamer 是一款创新的视频生成模型,它通过预测遮蔽的视觉令牌来理解并模拟世界动态。该模型将世界建模视为一个无监督的视觉序列建模挑战,旨在通过视觉输入映射到离散的令牌并预测被遮蔽的令牌来实现视频生成。
Moki是由美图公司推出的AI短片创作工具,专注于辅助视频创作者打造动画短片、网文短剧、故事绘本和音乐视频(MV)。它基于美图自研的奇想智能大模型(MiracleVision),提供智能剪辑、自动配乐、音效添加和字幕生成等功能。
Hallo是由复旦大学开发的一项前沿技术,专注于肖像图像动画。它利用先进的扩散模型生成逼真且动态的肖像动画,与传统的参数模型相比,Hallo技术提供了更为自然和流畅的面部动作。
Dream Machine是一款基于AI的视频生成工具,能够根据文本和图像快速生成高质量、逼真的视频内容。
该工具能够从单一图像生成具有复杂面部表情和身体动作的虚拟人物,包括笑、说唱、唱歌、眨眼、微笑、说话等效果。
腾讯混元团队与中山大学、香港科技大学联合推出全新图生视频模型“Follow-Your-Pose-v2”,只需要输入一张人物图片和一段动作视频,就可以让图片上的人跟随视频上的动作动起来,生成视频长度可达10秒。
星火绘镜是一款由科大讯飞推出的AI短视频创作平台。这个平台允许用户轻松地从文字描述生成短视频内容,将文本转换为视频分镜,并扩展成完整的短视频。它特别适合需要快速将创意或故事转化为视频内容的用户,例如内容创作者、营销人员和教育工作者。
一站式AI视频创作,1200+免费3D数字人。
AnimateAnyone是一个基于人工智能的角色动画生成工具,可以将静态图像转化为动态视频,实现角色的动画化。
SignLLM 是全球首个多语种手语视频生成模型,能够将文本或语音指令实时转化为手语视频,为听障人士提供沟通新方式。
Open-Sora是一个由hpcaitech开源的类Sora架构视频生成模型,它基于Diffusion Transformer(DiT)架构,旨在通过文本描述生成高质量的视频内容。该项目涵盖了整个视频生成模型的训练过程,包括数据处理、训练细节和模型检查点,供对文生视频模型感兴趣的人免费学习和使用。
FIFO-Diffusion是一种基于预训练扩散模型的新型推理技术,用于无需训练即可从文本生成无限长的视频。
Viva 是一个免费的 AI 生成工具和社区,提供 Text-to-Image、Image-to-Image、Text-to-Video、Image-to-Video 等功能,以及强大的 AI 编辑工具。用户可以扩展图像、重新绘制任何内容,使图像和视频更加高质量和 4K。
Veo 可以捕捉不同的视觉和电影风格,包括风景和延时镜头,并对已生成的镜头进行编辑和调整。
Synthesia是一款基于人工智能的视频生成平台,通过文本输入,利用AI技术将文本转换为包含面部表情、语音和肢体语言的视频内容,极大提升了视频的表现力和吸引力。
StoryDiffusion是由字节跳动和南开大学合作推出的AI工具,专注于长范围图像和视频生成,通过一致性自注意力机制,实现图像和视频内容的连续性和一致性。
DigenAI 数字人是一款创新的AI产品,其在数字互动方式革新和商务领域应用方面展现出巨大潜力。
Stability AI 推出了 Stable Artisan,这是一款支持使用 Developer Platform API 创建高质量媒体的 AI 工具,包含 Stable Diffusion 3 等高级模型,能够生成和编辑图像,并支持多种图像处理功能,以及用文字或图像创作精细视频。
通义千问的全民舞台功能是阿里通义实验室自研的人像视频生成模型EMO的一部分,允许用户通过上传人像图片配合音乐,生成个性化的AI视频MV。该功能集成了先进的AI技术,能够将人物表情、嘴型与歌曲韵律同步,创造出逼真的AI数字人视频。【请在手机应用商店中下载通义千问APP】
。该方法通过多模态注意力机制,将视频和文本特征进行融合,并利用多语言翻译模型将不同语言的文本特征进行转换,从而实现跨语言的视频-文本检索。实验结果表明,该方法在多语言视频-文本检索任务上取得了较好的效果。
元象XVERSE 于2021年初在深圳成立,是国内领先的AI与3D技术服务公司,致力于打造AI驱动的3D内容生产与消费一站式平台,愿景为“定义你的世界”。
MuseV是一个基于扩散模型的虚拟人视频生成框架,它能够以无限长度和高保真度生成满足视觉条件的视频。
SadTalker:学习现实的3D运动系数风格化音频驱动的单图像说话的脸动画。
MiraData 是一个具有长时长和结构化字幕 的大规模视频数据集。它专为长视频生成任务而设计。
通义实验室研发的 AI 模型 ——EMO 正式上线通义 App,并开放给所有用户免费使用。借助这一功能,用户可以在歌曲、热梗、表情包中任选一款模板,然后通过上传一张肖像照片就能让 EMO 合成演戏唱歌视频。
NeverEnds,强大的ai文字图片生成视频创作工具
HiDream.ai(智象未来)基于自研的、模型参数超过百亿的视觉多模态生成式基础模型,打造了面向广大设计师群体的 AI 创作工具和泛设计内容社区—— Pixeling(千象),不仅支持文生图、文生视频、视频编辑,还将支持图片编辑、图生视频、图生 3D 等功能。
一个统一的可控视频生成方法,它能够实现在不同条件下精确且一致的视频操作,包括相机轨迹、文本提示和用户动作注释。