ChatGPT 的崛起,也让其他 AI 领域的厂商们奋力追赶。

而在近日,一家名为 Runway 的人工智能创业公司就宣布推出一款全新的文本生成视频(Text-to-video)AI 模型,名为 Gen-2,是 2 月份推出的 Gen-1 的改进版。
Runway 公司主要提供 web 环境的 AI 影片剪辑工具,像是去背景、侦测影片人物动作的功能。该公司本身也是协助开发 Stable DIffusion 的参与者之一,并在二月份发布了第一个人工智能视频编辑模型 Gen-1。

Gen-1 主要是对视频素材进行转换,让用户可以输入一个粗糙的 3D 动画或抖动的手机拍摄片段,并使用文字指令来加以剪辑,像是更换影片中车辆的颜色。也可以借由输入一张图像,让 AI 将图像风格套用在影片上。如同上方的照片,纸板包装的视频和一个工业厂房的图片结合起来,产生了一个可以用于故事板或提案更精美作品的片段。
而现在推出的 Gen-2 新模型更强大了,无需事先输入一段影片或图片作为参考,用户只需要直接输入文字指令,就可以创造出视频了。但当然用户也能再上传一张照片外加文字指令,或凭借着一张图片来生成影片。


相比之下,Gen-2 更专注于 “从零开始” 生成视频。但也是有许多需要注意的部分。从 Runway 公司展示的影片中还是可以看得出一些缺陷,像是影片长度偏短、画面不够稳定、有人物出现时仍和真实影片有落差。而且,它的访问权限也非常受限。
虽说还是有缺陷,但 Gen-2 的结果足以让人惊艳和出色的。当然,文本生成视频的技术带来了很多便利,也带来了新的创造性机会,但同时也带来了威胁,例如虚假信息难以辨别资讯真伪等等。
目前,用户只能通过 Runway 公司的 Discord 平台注册并加入等候名单才能使用 Gen-2 模型。该公司发言人 Kelsey Rondenet 也表示将在未来几周内提供广泛访问。
No comments