3月7日,腾讯混元发布图生视频模型并对外开源,一起上线对口型与动作驱动等玩法,并支撑生成布景音效及2K高质量视频。
现在用户经过混AI视频官网即可体会,企业和开发者可在腾讯云请求运用API接口运用。根据图生视频的才能,用户只需上传一张图片,并简略描绘期望画面怎么运动及镜头怎么调度等,混元即可按要求让图片动起来,变成5秒的短视频,还能主动配上布景音效。
此外,上传一张人物图片,并输入期望“对口型”的文字或音频,图片中的人物即可“说话”或“歌唱”;运用“动作驱动”才能,还能一键生成同款跳舞视频。腾讯混元此次发布的图生视频模型,将为视频创造带来更多可能性,下降视频制造的门槛,推进视频内容的创新和多样化。一起,开源的API接口也将招引更多企业和开发者参加,一起推进图生视频技能的开展和使用。