Wan2.2で使用されている混合エキスパート(MoE)アーキテクチャは、まさに重要な革新である。このアーキテクチャは、高ノイズ段階と低ノイズ段階でノイズ除去プロセスを分離することで、異なるエキスパートモデルがそれぞれの専門分野に集中することを可能にする。高ノイズ専門家は、ノイズの多い初期段階での大まかなノイズ除去処理に特化し、低ノイズ専門家は、後期段階でのきめ細かな画質最適化に特化する。この役割分担により、Wan2.2は計算効率を維持しながら、生成品質を大幅に向上させることができる。単一のモデルと比較して、MoEアーキテクチャにより、Wan2.2はトレーニングデータの利用率を60%以上向上させることができ、より複雑なモーションやより高品質な美的効果のレンダリングをサポートします。
この答えは記事から得たものである。Wan2.2:テキストと画像を動画に効率的に変換するオープンソースの動画生成モデルについて































