本帖最后由 垚麟 于 2024-3-1 17:11 编辑
Pika Labs ,领先的人工智能之一添加了一项新功能,可以为生成的角色带来语音。
新的Lip Sync功能可让您在生成的视频中的人们说话,并将他们的嘴唇动作与声音同步。
在此之前视频制作者需要被迫接受生成的视频中,角色没有嘴唇运动,口型同步改变了这一点。这个新工具是生成人工智能视频领域的一个重要时刻,而该领域发展还不到一年。
到目前为止,大多数人工智能生成的视频剪辑都只是展示场景、人物的剪辑。他们没有像角色对着镜头或屏幕上的其他人说话那样的互动性。
由于无法让真实的角色与观众对话,大多数视频都被用于美化演示稿或用于音乐视频。
为什么人工智能视频中的口型同步很重要?
在过去的几个月里,Runway 和 Pika Labs 一直是真正的生成视频的主导平台。 Runway 推出合成画外音服务,抢先上市并快速迭代,但未与视频同步。 随着所有大玩家都在探索生成视频,并且OpenAI展示了其令人印象深刻的Sora AI 视频平台,竞争开始升温。
StabilityAI 还推出了新版本的稳定视频扩散,Leonardo 正在为其任何 AI 生成的图像提供运动。 Google 有Lumiere,Meta 有Emu,迫使早期参与者在其他人赶上之前添加新功能。
接下来是什么?
到目前为止,生成式人工智能的各项重大突破性功能都是处于孤岛状态。比如制作图像的工具、生成视频的工具、编写脚本的服务以及其他添加声音的工具。下一步将是将这些孤岛进行高水平的融合,通过简单的文本提示AI将生成更加完美的制作成果。
有人担心人工智能变成电影里的反派天网并控制我们的生活,但证据(到目前为止)似乎表明它只是想娱乐。
|