Die in Wan2.2 verwendete Mixed-Expert-Architektur (MoE) ist in der Tat eine wichtige Innovation. Diese Architektur ermöglicht es den verschiedenen Expertenmodellen, sich auf ihre jeweiligen Fachgebiete zu konzentrieren, indem sie den Entrauschungsprozess in eine rauschreiche und eine rauscharme Phase trennen. Die High-Noise-Experten sind auf grobe Entrauschungsprozesse in den rauschintensiven Frühphasen spezialisiert, während sich die Low-Noise-Experten auf die feinkörnige Optimierung der Bildqualität in den späteren Phasen konzentrieren. Diese Arbeitsteilung ermöglicht es Wan2.2, die Recheneffizienz beizubehalten und gleichzeitig die Qualität der Generierung deutlich zu verbessern. Im Vergleich zu einem einzelnen Modell ermöglicht die MoE-Architektur von Wan2.2 eine um mehr als 60% höhere Nutzung der Trainingsdaten und unterstützt komplexere Bewegungen und eine hochwertigere Wiedergabe ästhetischer Effekte.
Diese Antwort stammt aus dem ArtikelWan2.2: Open Source Videogenerierungsmodell mit effizienter Text- und Bild-zu-Video-UnterstützungDie