Wan2.2采用的混合专家(MoE)架构确实是一个关键创新点。这种架构通过分离高噪声和低噪声阶段的去噪过程,让不同的专家模型专注于各自的专长领域。高噪声专家擅长在噪声较多的早期阶段进行粗略的去噪处理,而低噪声专家则专注于后期精细的图像质量优化。这样的分工使得Wan2.2既能保持计算效率,又能显著提升生成质量。与单一模型相比,MoE架构让Wan2.2的训练数据利用率提高了60%以上,支持更复杂的运动和更高质量的美学效果呈现。
Essa resposta foi extraída do artigoWan2.2: Modelo de geração de vídeo de código aberto com suporte eficiente a texto e imagem para vídeoO