Das Facial Expression Control System von VisionStory nutzt eine bahnbrechende Technologie auf dem Gebiet des Deep Learning. Durch die Analyse der Gesichtsmerkmale hochgeladener Fotos erstellt das System mehr als 300 Mikro-Ausdrucksparameter-Modelle, die die Bewegungsmuster von 52 menschlichen Gesichtsmuskeln genau simulieren können. Die Plattform bietet sechs grundlegende Emotionsvorlagen, wie z. B. "fröhlich", "ernst" und "Marketing", die jeweils 2.000 Stunden maschinelles Lerntraining unter Beteiligung von Hollywood-Animatoren durchlaufen haben. Die Testdaten zeigen, dass die Natürlichkeit der Mimik der von ihr erzeugten digitalen Personen 92 Punkte des FACS-Standards (Facial Action Coding System) erreicht und damit das Leistungsniveau der meisten virtuellen Moderatoren übertrifft. In der Produktdemonstrationsszene zum Beispiel kann die digitale Person automatisch Details des Mikroausdrucks wie Augenbrauenkrümmung und Mundbewegung entsprechend dem Skript anpassen, was die Ansteckungsfähigkeit des Videos um 40% verbessert.
Diese Antwort stammt aus dem ArtikelVisionStory: Erstellung von KI-Erklärvideos aus Bildern und TextDie