Meta开放可将文字转化成短影片的Make-A-Video AI工具

Meta

Meta昨(29)日公布名为Make-A-Video的AI工具,能利用文字或静态图片产生短影片,并公开给社群试用。

Make-A-Video类似OpenAI的DALL-E和Stable Diffusion,能将输入的文字以AI模型产生成图像。Meta 表示,是以Meta AI部门生成性AI(generative)技术为基础发展而成,利用文字搭配图片,以及不加入相关文字及标注的影片片段为资料加以训练。Meta表示,这项工具可让用户发挥想像力,只要几行字即可生成各种天马行空、独一无二的短影片。

这项服务是Meta继今年7月的Make-A-Scene後最新生成性AI研发成果。Make-A-Scene透过提示,即可利用使用者输入的文字和简单草图,来生成一幅高品质的场景图。

图片来源/Meta

根据Meta的示范网站,Make-a-Video有多项能力。在基础层次上,它可以利用一行文字如「泰迪熊作画」或「机器人在时代广场跳舞」生成数秒短影片,现提供超现实、写实或风格化三种类型。它也能将单一张图转成动画,或是将二张图接合成连续性影片,例如把看似差异不小的地貌图接合成地形变动的影片。此外Make-a-Video还能以输入一则影片的素材生成4种变化,例如让跳舞的熊多出好几种舞步。

图片来源/Meta

Meta强调Make-a-Video和之前技术相比,再现文字意境的能力提高3倍,画质也改善了3倍。

Meta也将Make-a-Video 的相关技术资源,公开於GitHub供研究社群试用。

图片来源/GitHub

为了减少AI模型产生有害内容,Meta强调会在Make-a-Video反覆检视并使用筛选器,而且由於产生的影片相当逼真,Make-a-Video所有产生的影片都会加上浮水印以供读者辨识。Meta同时强调会在Make-a-Video推向所有使用者之前,持续分析、测试,确保每个环节的安全及适当。

0 0 投票数
Article Rating
订阅评论
提醒
guest
0 Comments
内联反馈
查看所有评论
0
希望看到您的想法,请您发表评论x