Am 25. Juli EST, AI Video, Inc. Startbahn hat die Ergebnisse seiner jüngsten Untersuchung veröffentlicht -Runway AlephIm Gegensatz zu seinem Vorgänger und seinen Konkurrenten, die sich im Allgemeinen auf "Text-zu-Video"-Erzeugungsfunktionen konzentrierten. Im Gegensatz zu seinem Vorgänger und seinen Konkurrenten, die sich im Allgemeinen auf die "Text-zu-Video"-Erstellung konzentrierten.Aleph Definiert als "kontextbezogenes Videomodell", verlagert es den Schwerpunkt von der Erstellung von Videos aus dem Nichts auf ein tieferes Verständnis und die redaktionelle Umgestaltung vorhandener Videoinhalte.
Dieser Schritt, der den Beginn der OpenAI Sora und Rennfahrer Kling Nachdem Modelle wie diese die Qualität der Videogenerierung auf ein neues Niveau gehoben haben, haben die Hauptakteure begonnen, das nächste zentrale Schlachtfeld der Videogenerierung zu erkunden: Kontrollierbarkeit und Nachbearbeitung.
Was ist "Kontextwahrnehmung"?
In der Vergangenheit bestand die Hauptaufgabe von KI-Videotools darin, ein brandneues Video auf der Grundlage einer Textaufforderung zu erstellen. Stattdessen Runway Aleph Der Hauptunterschied liegt in seiner Fähigkeit, die internen Elemente, Szenen und den Kontext eines eingehenden Videos zu "lesen" und darauf basierend präzise und komplexe Änderungen vorzunehmen.
Es handelt sich eher um eine intelligente Video-"Nachbearbeitung" als um eine reine "Filmaufnahme". Laut der offiziellen Demo, die von Runway veröffentlicht wurdeAleph Die Fähigkeit, dies zu tun, zeigt sich in den folgenden Bereichen:
- Erzeugen neuer Kamerapositionen und -perspektiven
Die Benutzer können ein Stück vorhandenes Videomaterial eingeben, und dann kann das Modell durch einfache Textbefehle wie "Erzeuge eine mittlere Einstellung" oder "Nimm aus einem niedrigen Winkel auf" neue Kamerawinkel erstellen, die im Originalmaterial nicht vorhanden sind. Für die Film- und Fernsehproduktion bedeutet dies, dass eine reichhaltige Kamerasprache und zusätzliche Aufnahmen zu geringeren Kosten möglich sind.
Befehl: "Erzeuge einen Volltreffer aus mittlerer Entfernung"
- Nahtlose Fortführung der Geschichte
AlephDie Fähigkeit, den Inhalt und die Dynamik des letzten Bildes des Videos zu verstehen und ein logisch kohärentes nächstes Segment des Filmmaterials zu erzeugen, ermöglicht eine nahtlose Fortsetzung der Geschichte.Befehl: "Nächsten Schuss generieren"
- Migration nach beliebigem Stil
Wenden Sie den künstlerischen Stil eines beliebigen Bildes oder Videos auf das Zielvideo an, um eine ästhetische Umgestaltung zu erreichen. Diese Funktion selbst ist nicht neu, aber
AlephDie Stärke liegt in der hohen Beibehaltung von Inhalt und Dynamik.Befehl: "Den Stil des Videos konvertieren"
- Änderung von Umweltelementen
dies ist
AlephEine der störendsten Funktionen. Sie ermöglicht es den Benutzern, drastische Änderungen an der Umgebung in einem Video vorzunehmen, z. B. das Wetter (Hinzufügen von Regen oder Schnee), die Tageszeit (von Tag auf Nacht) oder den Ort zu ändern, während die Dynamik und Struktur des Objekts im Wesentlichen unverändert bleibt. Diese Fähigkeit wird die Messlatte für visuelle Effekte (VFX) erheblich senken.Befehl: "Regeneffekt verstärken".
Strategische Verlagerung von der "Erzeugung" zur "Bearbeitung"
Runway Als eines der ersten Unternehmen, das ein Tool zur Erzeugung von KI-Videos auf den Markt gebracht hat, hat die Gen-1 Die Video-zu-Video-Konvertierung in Gen-2 der Text-zu-Video-Generierung hat das Tempo des Marktes bestimmt. Doch mit der Sora im Gesang antworten Kling Die rein "generative" Schaltung wurde sehr stark nachgefragt, da sie eine erstaunliche Fähigkeit in Bezug auf Generierungszeit, Auflösung und physikalische Konsistenz zeigte.
Aleph Die Veröffentlichung kann als die Runway Anstatt uns auf ein Wettrüsten mit den Giganten in Sachen "Generationsqualität" einzulassen, sollten wir einen anderen Weg finden, um unsere Anhäufung im Bereich der kreativen Werkzeuge zu nutzen, um in den "Post-Generation"-Bearbeitungs- und Compositing-Markt einzudringen. Auf diesem Markt wird mehr Wert auf Praktikabilität, Kontrollierbarkeit und Workflow-Integration gelegt, was zufällig der Hauptschmerzpunkt professioneller Kreativer ist.
Runway Aleph Die Idee ist, die KI nicht mehr zu einer "Black Box" zu machen, sondern sie als intelligenten Assistenten zu positionieren, der immer wieder mit menschlichen Schöpfern interagieren und sie iterativ verändern kann. Dieses Modell der "Mensch-Maschine-Kollaboration" kommt der heutigen Realität der kreativen Arbeit möglicherweise näher als das Streben nach einer vollautomatischen Generierung.
Nach offiziellen Angaben.Runway Aleph Der frühe Zugang wird zunächst Firmenkunden und Kreativpartnern zur Verfügung stehen, bevor er schrittweise auf alle Nutzer ausgeweitet wird. Damit wird die Runway eine kohärente Strategie der Priorisierung der zu bedienenden professionellen und kommerziellen Märkte durch die Zusammenarbeit mit den Lionsgate und andere, um den Wert des Produkts in realen Arbeitsabläufen zu optimieren.






































