Adobe 正在进入生成式人工智能视频领域。该公司正在萤火虫视频模型,其包含被取笑过自今年年初以来,今天将推出一系列新的工具,包括一些直接内置在Premiere Pro中的工具,这些工具将允许创作者扩展视频素材并从静态图像和文本提示生成视频。
第一个工具——生成扩展(Generative Extend)——正在Premiere Pro上以测试版形式推出。它可以用于延长略显短的视频片段的开头或结尾,或者在镜头中间进行调整,例如纠正视线的变化或意外的动作。
片段只能延长两秒钟,因此生成式扩展功能仅适用于小的调整,但这可以替代重新拍摄以纠正微小问题的需求。延长后的片段可以在720p或1080p分辨率下以每秒24帧生成。它也可以用于音频,以帮助平滑编辑过程,尽管存在一定的限制。例如,它可以将音效和环境“房间音”延长最多十秒钟,但不能应用于语音对话或音乐。
图像:Adobe
另外两个视频生成工具即将在网页上推出。Adobe的Text-to-Video和Image-to-Video工具首先亮相,九月宣布现在作为有限的公开测试版在Firefly网页应用中推出。
文字转视频的功能与其他视频生成工具类似如下:跑道以及开放人工智能的Sora用户只需要输入他们想要生成的内容的文字描述。它可以模拟各种风格,如常规的“真实”电影、3D动画和定格动画,并且生成的片段可以通过一系列“相机控制”选项进一步精炼,这些选项可以模拟不同的摄像机角度、运动和拍摄距离。
图片:Adobe
Image-to-Video 更进一步,允许用户在文本提示旁边添加参考图像,以提供更多对结果的控制。Adobe建议这可以用于从图片和照片生成b-roll素材,或通过上传现有视频中的静止画面来帮助可视化重新拍摄的画面。然而,下面的示例显示了“事前”和“事后”的对比,表明这种方法实际上并不能直接替代重新拍摄,因为结果显示中仍然存在诸如晃动的电缆和移动的背景等错误。
视频:Adobe
视频:Adobe
你也不会很快就能用这项技术制作完整的电影。当前,Text-to-Video和Image-to-Video片段的最大长度为五秒钟,质量上限为720p和每秒24帧。相比之下,OpenAI表示Sora可以“在保持视觉质量和符合用户的提示的情况下”生成长达一分钟的视频——但这是尚未对公众开放尽管在Adobe工具发布前几个月就已经宣布了。
视频:Adobe
文本到视频、图像到视频和生成扩展大约都需要90秒来生成,但Adobe表示正在开发一种“涡轮模式”以缩短这个时间。尽管有所限制,Adobe称其由AI视频模型驱动的工具是“商业上安全”的,因为这些工具是在创意软件巨头被许可使用的数据上进行训练的。鉴于其他提供商如Runway的模型因据称在未经许可的数据上接受训练而受到审查,数千个被抓取的YouTube视频——或者在Meta的情况下,也许甚至是你的个人的视频商业可行性可能会成为一些用户达成交易的关键因素。
另一个好处是使用Adobe的Firefly视频模型创建或编辑的视频可以被包含内容凭证帮助在在线发布时披露AI使用和所有权权利。这些工具何时会脱离测试阶段尚不清楚,但至少它们已经公开可用——这比我们能说的更多了。开放人工智能的Sora, Meta的Movie Gen,和 谷歌的Veo生成器。
今天的Adobe MAX大会上宣布了AI视频的发布,该公司还推出了多个由人工智能驱动的功能在其创意应用中。