新智元报道
编辑:静音
【新智元导读】 在AI视频这一赛道,Runway显然已经走出了自己的特色——专注于艺术、媒体和娱乐。他们新近连发了两个新功能:可将真人面部表情精确复刻给AI角色的Act-One,以能够实现3D化的AI摄像头控件。
前几天,Runway宣布更加灵活逼真的AI摄像头控件上线,开始实现3D化!该功能Gen-3 Alpha Turbo视频生成模型可用。
而就在一个多星期前,10月23日,Runway还宣布了Gen-3 Alpha的新功能Act-One。该功能可以将视频中真人的面部表情精确复刻给AI角色。
功能虽小,但都将为动画师、游戏开发者和电影制作人提供非常大的便利、节约巨大的成本。
在各大公司争相卷AI视频生成长度、逼真度、流畅度的时候,Runway显然已经在AI视频赛道中走出了自己的特色——做专门服务于艺术、媒体和娱乐的AI。
正如Runway的CEO在他的博客里写道:
「许多人犯的错误是将人工智能视为最终目标。它不是。人工智能是机制,是支持更大事物的基础设施。真正的革命不在于技术本身,而在于它所赋能的东西:新的表达形式、新的讲故事方式、新的连接人类经验的方法。」
「这也是为什么纯粹的人工智能公司变得过时。引人入胜的问题不再在于技术本身——而在于我们用它构建什么。下一波创新不会来自专注于构建更好模型的公司。」
「变革的浪潮将来自那些懂得如何使用这些工具创造新媒体形式、新体验类型和新的讲故事方式的人。基础设施已铺就,基础已建立。现在是令人兴奋的部分:用它创造有意义的东西。」
AI摄像头控件
尽管其他AI视频生成器和Runway本身之前也提供摄像头控件,但它们相对粗糙,生成的新视频常常显得随机且局限——在尝试围绕主体上下或四周平移时,有时会导致主体变形、变成二维,或者出现奇怪的变形和故障。
但是,现在有了Runway新发布的AI摄像头控件,用户可以任意选择在场景中移动的方向、角度、速度,将各种相机移动方式和速度变化相结合。
水平移动的同时转换镜头角度,以环绕主体形成弧线效果。
快速地穿越地点,
缓慢地在场景中移动,
快速拉远镜头。
在影视制作中,为了将真人表演转化为适用于动画的3D模型,传统的面部动画流程通常包含多个复杂的步骤,涉及动作捕捉、面部手动绑定等技术,还需要非常多的参考视频素材。
电影拍摄过程中,演员头戴专用设备,脸上布满了标记点
而且,传统方法还面临着一大挑战——如何将参考视频中的情感、微表情完整复制到数字角色中。
现在,用Act-One,一个视频就可以。
甚至,一段用普通手机拍摄的视频,都能为AI生成的角色赋予生动逼真的表情。眼神、微表情、节奏和表演的呈现都在最终生成的输出中得以精准还原。
Act-One支持生成的角色类型还很多样。一段视频可以生成好几种画风不同的人物角色。
列举的案例中,还有生成动物动画角色的,感觉可以直接上演「疯狂动物城」了!
现就职于Runway的Jimei Yang在X上发布了一个用Act-One生成的经典场景复刻,重现了《指环王》中咕噜的「nobody likes you」台词。
在不同的视觉角度下,用Act-One生成的人物视频依然具有高度稳定性,保持着高保真的面部动画。不会因为视角、光线等因素的变化而产生质量波动或失真。
Act-One还可以创建多轮对话场景。毫不夸张地说,只要有摄像机,一个人,就可以演一台戏!
单人录制过程
成品视频
参考资料:
https://runwayml.com/research/introducing-act-one