Zugang aus Übersee: www.kdjingpai.com
Ctrl + D Lesezeichen für diese Seite

Motion2Motion ist ein trainingsfreier Bewegungsmigrationsrahmen, der sich auf die Lösung des Animationsmigrationsproblems zwischen Charakteren mit unterschiedlichen Skelettstrukturen konzentriert. Herkömmliche Retargeting-Techniken für Animationen setzen in der Regel voraus, dass die Ausgangs- und Zielcharaktere ähnliche Skelett-Topologien aufweisen, was bei sehr unterschiedlichen Charakteren (z. B. Menschen und Vierbeiner) schwierig ist. Motion2Motion schlägt jedoch einen innovativen Ansatz vor, bei dem keine großen gepaarten Bewegungsdatensätze für das Training erforderlich sind, sondern der Benutzer nur eine kleine Anzahl von Bewegungsbeispielen des Zielcharakters bereitstellen und spärliche Korrespondenzen (mindestens 6) zwischen den Ausgangs- und Zielskeletten angeben muss, um eine qualitativ hochwertige Bewegungsmigration zu erreichen. Um eine qualitativ hochwertige Bewegungsmigration zu erreichen, muss der Benutzer nur eine kleine Anzahl von Bewegungsbeispielen des Zielcharakters zur Verfügung stellen und spärliche Korrespondenzen zwischen dem Quell- und dem Zielskelett (mindestens 6) angeben. Der Rahmen ordnet die Aktionssegmente der Ausgangsfigur dem Aktionsraum der Zielfigur durch einen neuartigen Bewegungsabgleichsansatz zu und rekonstruiert schließlich eine natürliche und kohärente Animation, was für Entwickler in den Bereichen Spieleentwicklung, Film- und Fernsehanimation usw. sehr praktisch ist.

Funktionsliste

  • Topologie-übergreifende AktionsumleitungUnterstützung für die Übertragung von Bewegungen zwischen Charakteren mit sehr unterschiedlichen Skelettstrukturen, z. B. die Übertragung der Angriffsbewegungen einer Schlange auf einen Tyrannosaurus Rex.
  • Zwei- und vierbeinige Umlenkung der AnimationEs folgt ein Beispiel für eine qualitativ hochwertige Bewegungstransformation zwischen Figuren mit unterschiedlichen Bewegungsmustern, z. B. die Übertragung der Laufbewegung eines Flamingos auf einen Affen und die Erzeugung einer natürlichen Dynamik von Gliedmaßen, Armen und Schwanz.
  • Sparse Bone Correspondence MatchingDer Benutzer muss nicht mühsam alle Bones einzeln binden, sondern nur eine kleine Anzahl (mindestens 6) von Schlüssel-Knochen-Korrespondenzen angeben, damit das System die Bewegungsmigration durchführen kann.
  • Unterstützung für spärliche Quell-KeyframesDas System ist in der Lage, eine vollständige und kohärente Zielanimation zu rekonstruieren, selbst wenn die Quellanimation spärlich ist und diskontinuierliche Keyframes enthält.
  • Blender Plugin IntegrationDas Blender-Plug-in ist für Animatoren gedacht, die visuelle Bewegungsumlenkungen in Echtzeit in einem professionellen Workflow durchführen wollen.
  • Kompatibel mit SMPL-ModellenBewegung, die auf der Grundlage von Standard-Schaufensterpuppen wie SMPL erfasst wurde, kann leicht auf Spielfiguren mit komplexen Kostümen und dynamischen Effekten übertragen werden.

Hilfe verwenden

Das Herzstück von Motion2Motion ist ein Bewegungsmigrations-Framework, das ohne Training auskommt. Das bedeutet, dass Benutzer es sofort einsetzen können, ohne große Datensätze vorbereiten oder komplexe Modelltrainings durchführen zu müssen. Es wird den Endanwendern in erster Linie über ein Blender-Plug-in zur Verfügung gestellt, das eine nahtlose Integration in professionelle Animationsproduktionsumgebungen ermöglicht.

Zentraler Arbeitsablauf

Gemäß der Systemübersicht auf der Projekthomepage lässt sich der Motion2Motion-Workflow in folgenden Schritten nachvollziehen:

  1. Vorbereiten der Dateneingabe:
    • Quelle: Motion: Eine Animationssequenz, die Sie migrieren möchten, z. B. eine aufgenommene Animation eines tanzenden Menschen.
    • Ziel-SkelettDas Skelett des Charaktermodells, auf das Sie die Animation anwenden möchten, z. B. eine Monsterfigur in einem Spiel.
    • Datenbank für ZielbewegungenVorbereitung eines oder mehrerer exemplarischer Aktionsclips für den Zielcharakter. Diese Bibliothek muss nicht groß sein und dient dem systematischen Verständnis der Bewegungsmerkmale des Zielcharakters.
  2. Definition der spärlichen Korrespondenz:
    Dies ist der wichtigste Schritt des gesamten Prozesses. Der Benutzer muss eine Verbindung zwischen den Bones der Ausgangsfigur und der Zielfigur herstellen. Im Gegensatz zu herkömmlichen Methoden erfordert Motion2Motion keine Eins-zu-Eins-Bindung jedes Bones.

    • In der Benutzeroberfläche des Blender-Plugins müssen Sie nur einige Schlüsselteile der Skelette der beiden Charaktere auswählen, die eine ähnliche Kinematik aufweisen, um sie abzugleichen. Assoziieren Sie zum Beispiel den "Kopf" des Ausgangscharakters mit dem "Kopf" des Zielcharakters, die "linke Hand" mit der "linken Vorderpfote" des Zielcharakters, die "Wirbelsäule" mit der "Wirbelsäule" des Zielcharakters und die "Wirbelsäule" mit der "Wirbelsäule" des Zielcharakters. "linke Hand" mit der "linken Vorderpfote" des Ziels, "Wirbelsäule" mit der "Wirbelsäule" des Ziels, usw.
    • Laut der offiziellen Demo müssen nur mindestens 6 Paare von Schlüsselknochen wie Kopf, Wirbelsäule, Hüfte, linker und rechter Fuß und linke Hand gebunden werden, um den gewünschten Effekt zu erzielen. Dieses spärliche Mapping reduziert die Komplexität der Voreinstellungen erheblich.
  3. Ausführung Aktion Migration:
    • Sobald die Einstellungen abgeschlossen sind, starten Sie den Migrationsprozess im Plugin. Das System wird den Vorgang automatisch im Hintergrund ausführen.
    • Bewegungsaufschlüsselung und MatchingDas System zerlegt zunächst die Ausgangsbewegungssequenz in viele kleine, sich überlappende "Bewegungsfelder".
    • Räumliche Projektion und AbfrageDann verwendet es die von Ihnen definierte spärliche Bone-Mapping-Beziehung, um jedes Aktionsfragment der Quelle in den Bone-Raum des Zielcharakters zu "projizieren" und eine "Abfrageanfrage" zu stellen. Anschließend durchsucht das System anhand dieser Abfrage die von Ihnen bereitgestellte Beispiel-Aktionsbibliothek des Zielcharakters, um das am besten passende Aktionsfragment zu finden.
    • Integration und WiederaufbauDas System führt eine gewichtete Mittelwertbildung und Fusion aller abgerufenen Ziel-Bewegungsclips durch, die der Zielfigur am besten entsprechen, und rekonstruiert schließlich eine vollständige, glatte Animation, die der physischen Struktur der Zielfigur entspricht, basierend auf dem Fusionsergebnis.

Vorgänge im Blender-Plug-in

Das offizielle Video demonstriert die Echtzeit-Schnittstelle des Blender-Plug-ins, und die Benutzung ist für Animatoren sehr intuitiv:

  1. Modelle und Animationen importierenImportieren Sie Ihren Quellcharakter (und seine Aktionen) und Ihren Zielcharakter in eine Blender-Szene.
  2. Öffnen Sie das Motion2Motion-PluginNach dem Start des Plug-ins erscheint ein spezielles Bedienfeld.
  3. Zuweisung von Rollen und Aktionen: Weisen Sie im Panel das Quellzeichen und das Zielzeichen den entsprechenden Feldern zu. Laden Sie die Aktionsdaten des Quellzeichens.
  4. Erstellen einer KnochenkorrespondenzDas Plugin bietet eine visuelle Schnittstelle, mit der Sie einfach Quell- und Zielbones auswählen und Paarungsbeziehungen erstellen können. Sie können in Echtzeit sehen, welche Bones gebunden sind (z. B. mit hervorgehobenen Farben).
  5. Umleitung in EchtzeitNach Abschluss der Bindung wird die Echtzeit-Umleitungsfunktion aktiviert. Wenn Sie die Animation des Quellzeichens abspielen, bewegt sich das Zielzeichen entsprechend dem Ergebnis des Algorithmus in Echtzeit, was für Sie eine bequeme Vorschau und sofortige Anpassung ermöglicht.
  6. Ergebnisse exportierenWenn Sie mit den Ergebnissen zufrieden sind, können Sie die generierten Animationsdaten in das Skelett der Zielfigur einbinden, um sie in einer Spiele-Engine oder einer anderen 3D-Software zu verwenden.

Entwickler, die tiefer in die Materie eindringen oder sekundäre Entwicklungen vornehmen möchten, können die offizielle Website des Projekts besuchenCodeLink, um den Quellcode zu erhalten, und folgen Sie der Dokumentation zur Konfiguration und Verwendung der Umgebung.

Anwendungsszenario

  1. Spieleentwicklung
    In der Spieleentwicklung ist es oft notwendig, Charaktere mit unterschiedlichen Formen zu animieren (z. B. Monster, Aliens, Tiere). Mit Motion2Motion können Entwicklungsteams schnell hochwertige Animationen für nicht-menschliche Charaktere in Spielen generieren, indem sie denselben Satz an Motion-Capture-Daten für menschliche Schauspieler verwenden und so die Kosten und den Zeitaufwand für die manuelle Animation jedes einzelnen Charakters drastisch reduzieren.
  2. Animation für Film und Fernsehen
    Bei der Produktion von Animationsfilmen oder Spezialeffekten können die Animatoren vorhandene Bibliotheken mit hochwertigen Animationen wiederverwenden. Nehmen Sie zum Beispiel die Laufanimation eines Pferdes, die bereits in einem Archiv vorhanden ist, und übertragen Sie sie auf ein fiktives Fantasiewesen, wobei der Realismus der Bewegung und die Einzigartigkeit der Figur erhalten bleiben.
  3. Virtuelle Realität und das Metaversum
    In VR-Anwendungen oder Meta-Universum-Plattformen, in denen der Avatar des Benutzers stark variiert, kann Motion2Motion die (von VR-Trackern erfassten) Körperbewegungen des Benutzers in Echtzeit auf jeden Avatar beliebiger Form anwenden, egal ob es sich um einen Standard-Humanoiden oder ein Cartoon-Tier handelt, und sicherstellen, dass die Bewegungen natürlich koordiniert sind.
  4. Forschung in der Robotik
    Forscher können die Technologie nutzen, um menschliche oder tierische Bewegungsmuster für die Bewegungsplanung und Simulationstests von Robotern zu übertragen und so den Entwicklungsprozess von bionischen Robotern zu beschleunigen.

QA

  1. Was ist Motion2Motion?
    Motion2Motion ist ein Forschungsprojekt im Bereich Computergrafik, das auf der SIGGRAPH Asia 2025 veröffentlicht wurde. Es schlägt einen neuartigen, trainingsfreien Rahmen für die Migration von Animationen zwischen Figuren mit sehr unterschiedlichen Skelettstrukturen vor.
  2. Benötigt dieses Tool eine Menge an Trainingsdaten?
    Motion2Motion ist ein "trainingsfreier" Rahmen. Motion2Motion ist ein "trainingsfreies" Framework, das nicht auf große Datensätze mit gepaarten Aktionen angewiesen ist. Alles, was Sie brauchen, ist eine oder ein paar einfache Beispielhandlungen für die Zielfigur.
  3. Wie sollte ich Motion2Motion verwenden?
    Für Animatoren und Designer ist der direkteste Weg, es zu verwenden, das offiziell bereitgestellte Blender-Plugin. Sie können Ihr Modell in Blender importieren, spärliche Bone-Korrespondenzen über die Plugin-Schnittstelle einrichten und dann die umgeleitete Animation in Echtzeit in der Vorschau anzeigen und generieren. Für Entwickler, können Sie den Quellcode von seiner GitHub-Seite für eine tiefere Integration und Entwicklung zu erhalten.
  4. Welche Arten der Migration von Zeichenanimationen werden unterstützt?
    Das Framework ist sehr flexibel und unterstützt ein breites Spektrum komplexer Migrationsszenarien, darunter:
  • intraspezifische Migrationz. B. die Migration von einer Schlangenart zu einer anderen.
  • Artenübergreifende Migrationz. B. die Migration von Schlangen zu Tyrannosaurus rex.
  • Übergang von Zweibeinern zu Vierbeinernz. B. die Migration von Menschen oder Vögeln zu Vierbeinern wie Affen, Bären oder Hunden.
  • Standardmodelle zu Spielcharakteren: z.B. die Übertragung der Bewegungen einer SMPL-Puppe auf eine komplexe Fantasy-Spielfigur.
0Lesezeichen
0Gelobt

Sie können keine AI-Tools finden? Versuchen Sie es hier!

Geben Sie einfach das Schlüsselwort Barrierefreiheit Bing-SucheDer Bereich KI-Tools auf dieser Website bietet eine schnelle und einfache Möglichkeit, alle KI-Tools auf dieser Website zu finden.

zurück zum Anfang

de_DEDeutsch