Verschreibung
Das folgende dreistufige Optimierungsschema kann angewandt werden, um das Problem des Detailverlusts aufgrund von niedrig aufgelösten Eingaben zu lösen:
- Verbesserung der VorverarbeitungVerwenden Sie ein Super-Resolution-Tool (z. B. Real-ESRGAN), um das Eingangsbild auf mehr als 512×512 zu vergrößern, und es wird empfohlen, die Ausgabeauflösung auf 1024×1024 zu beschränken, um eine Überlastung des Videospeichers zu vermeiden.
- Optimierung des DatenabgleichsAnpassen der Hauptpunkte des Gesichts mithilfe der PanoHead Zuschneidehilfe, um sicherzustellen, dass die Proportionen der Gesichtszüge mit dem Modell übereinstimmen, wobei besonders auf die Augen- und Lippenbereiche zu achten ist, die den Bildschirm einnehmen müssen 30%-40%.
- zweistufige ErzeugungGenerieren Sie zunächst eine grobe Ansicht im Modus mit niedriger Auflösung (256×256) und verbessern Sie dann die Details mit dem Diff360_MODEL-Verfeinerungsmodul, das den Videospeicherverbrauch von 30% reduziert.
Optionen
Wenn die Hardware begrenzt ist:
- Verwenden Sie die vom Projekt bereitgestelltenTestdaten zum Gesicht umarmenHochauflösende Proben werden als Referenzvorlagen in
- Aktivieren von ControlNet's
--low_res_mode
Parameter (eine manuelle Änderung des Skripts reference.sh ist erforderlich) - Auswahl des Ausgangs
.obj
Format und nicht NeRF, was durch Nachbearbeitung mit Blender behoben werden kann
Diese Antwort stammt aus dem ArtikelDiffPortrait360: Erzeugen von 360-Grad-Kopfansichten aus einem einzigen PorträtDie