美东时间 7 月 25 日,AI 视频公司 Runway 发布了其最新的研究成果——Runway Aleph
。不同于其前代产品以及竞争对手们普遍专注的“文本到视频”生成能力,Aleph
被定义为一个“情境感知视频模型” (in-context video model),将重点从凭空创造视频,转向了对现有视频内容的深度理解和编辑转换上。
这一举动,标志着在 OpenAI Sora
和快手 Kling
等模型将视频生成质量推向新高度之后,头部玩家已开始探索视频生成的下一个核心战场:可控性与后期编辑。
何为“情境感知”?
在过去,AI 视频工具的核心任务是根据文本提示 (prompt) 创造出一段全新的视频。而 Runway Aleph
的核心差异在于,它能够“读懂”一段输入视频的内部元素、场景和上下文,并在此基础上进行精准、复杂的修改。
这更像是一种智能化的视频“后期制作”,而非单纯的“拍摄”。根据 Runway 官方发布的演示,Aleph
的能力主要体现在以下几个方面:
- 生成新机位与视角
用户可以输入一段已有的视频素材,然后通过简单的文本指令,如“生成一个中景镜头”或“从低角度拍摄”,模型便能创造出原始素材中不存在的全新机位画面。这对于影视制作来说,意味着可以用更低的成本获得丰富的镜头语言和补拍镜头。
指令:“生成一个中景完整镜头”
- 无缝续写故事
Aleph
能够理解视频最后一帧的内容和动态,并生成逻辑连贯的下一段镜头,从而实现故事的无缝延续。指令:“生成下一个镜头”
- 任意风格迁移
将任意图像或视频的艺术风格应用到目标视频上,实现整体美学的转换。这项功能本身不新,但
Aleph
的优势在于其对内容和动态的高度保留。指令:“转换视频的风格”
- 修改环境元素
这是
Aleph
最具颠覆性的功能之一。它允许用户对视频中的环境进行大刀阔斧的修改,例如改变天气(增加雨雪)、时间(从白天到黑夜)或地点,同时保持主体对象的动态和结构基本不变。这种能力将大大降低视觉特效 (VFX) 的门槛。指令:“增加下雨效果”
从“生成”到“编辑”的战略转向
Runway
作为最早商业化AI视频生成工具的公司之一,从 Gen-1
的视频到视频转换,再到 Gen-2
的文本到视频生成,一直在引领市场的节奏。然而,随着 Sora
和 Kling
在生成时长、分辨率和物理一致性上展现出惊人能力,纯粹的“生成”赛道变得异常拥挤。
Aleph
的发布,可以看作是 Runway
的一次战略调整:与其在“生成质量”上与巨头进行军备竞赛,不如另辟蹊径,利用自身在创意工具领域的积累,切入“生成后”的编辑与合成市场。这个市场更注重实用性、可控性和工作流整合,恰好是专业创作者的核心痛点。
Runway Aleph
的思路,不再是让 AI 成为一个一次性的“黑盒”创作者,而是将其定位成一个可以与人类创作者反复交互、迭代修改的智能助手。这种“人机协同”的模式,或许比追求全自动生成更贴近当前创意工作的现实需求。
根据官方信息,Runway Aleph
的早期访问权限将首先向企业客户和创意合作伙伴开放,随后再逐步扩大到所有用户。这延续了 Runway
一贯的策略,即优先服务专业和商业市场,通过与 Lionsgate
等公司的合作,打磨产品在实际工作流中的应用价值。