Durchbrüche bei der Genauigkeit modalspezifischer Normalisierungsverfahren
Die modalitätsspezifische Normalisierungstechnologie, die den Kern des MNVTON-Projekts bildet, definiert den Genauigkeitsstandard der virtuellen Anprobe neu. Die Technologie erreicht eine feinkörnige Kontrolle des Anprobeeffekts, indem sie einen dreifachen modalen Analyserahmen von Kleidungsattributen, menschlichen Eigenschaften und Umgebungselementen einrichtet. Auf der technischen Implementierungsebene führt das System eine multimodale Zerlegung der eingegebenen Anprobeanforderung durch: Die Bekleidungsmodalität konzentriert sich auf die Erhaltung der Textur und die physikalische Simulation, die menschliche Körpermodalität auf die Anpassung der Körperhaltung und die Anpassung der Körperform und die Umgebungsmodalität auf die Lichtfusion und die Hintergrundkoordination.
Testdaten zeigen, dass diese modalitätsgetrennte Verarbeitung die Simulation von Bekleidungsfalten mit einer Genauigkeit von 92% ermöglicht, was die 68% des traditionellen Single-Modality-Ansatzes bei weitem übertrifft. Insbesondere bei komplexen Materialien wie Seide ist der modalitätsspezifische Normalisierungsalgorithmus in der Lage, mehr als 83% an Texturdetails beizubehalten, während die allgemeine Normalisierungsmethode nur etwa 55% an Merkmalen beibehält. Die im Rahmen des Projekts vorgelegten Vergleichsfälle belegen, dass die Technologie den Passformfehler in Schlüsselbereichen wie Halsausschnitten und Manschetten innerhalb von 3 Pixeln kontrollieren kann, was den Genauigkeitsanforderungen für kommerzielle Anwendungen entspricht.
Diese Antwort stammt aus dem Artikel1-2-1-MNVTON: Effiziente Bilder, virtuelle Anprobe von Kleidung durch Personen in Videos (noch zu öffnen)Die

































