Programa de implementação no local com animação em tempo real da VTuber
A configuração a seguir é necessária para obter uma animação de baixa latência:
- Preparação do hardwarePlaca de vídeo: Huawei Rise 910B NPU (5ms/frame) ou placa de vídeo NVIDIA A100 (8ms/frame), é necessário instalar os drivers correspondentes
- Otimização de processosCrie uma biblioteca de fotos de estoque
local_guided_animation.pySubstituição em tempo real de partes de caracteres (por exemplo, emoticons/gestos), configurações--cache_frames 10Ativar o cache de quadros - Integração do OBSOuça a entrada da câmera virtual com um script Python que chama automaticamente o modelo para gerar e enviar o fluxo; o código de amostra está disponível no Wiki do projeto
LiveDemoparte
Configuração dos principais parâmetros: 1) Definição--quality fast2) restringir a área de geração (por exemplo, somente o rosto); 3) pré-carregar modelos de ação comumente usados. Com o pacote oficial de plug-ins do VTuber (联系yangsiqian@bilibili.com获取) fornecido pelo B Station, é possível obter funções avançadas, como sincronização de boca.
Essa resposta foi extraída do artigoIndex-AniSora: Ferramenta de geração de vídeo de anime de código aberto BilibiliO































