O Sistema de Controle de Expressão Facial da VisionStory utiliza uma tecnologia inovadora no campo da aprendizagem profunda. Ao analisar os recursos faciais das fotos carregadas, o sistema cria mais de 300 modelos de parâmetros de microexpressão, que podem simular com precisão os padrões de movimento de 52 músculos faciais humanos. A plataforma oferece seis modelos básicos de emoção, como "alegre", "sério" e "marketing", cada um dos quais passou por 2.000 horas de treinamento de aprendizado de máquina com a participação de animadores de nível hollywoodiano. Os dados de teste mostram que a naturalidade das expressões das pessoas digitais geradas por ele atinge 92 pontos do padrão FACS (Facial Action Coding System), superando o nível de desempenho da maioria das âncoras virtuais. Por exemplo, na cena de demonstração do produto, a pessoa digital pode ajustar automaticamente os detalhes da microexpressão, como a curvatura da sobrancelha e o movimento da boca, de acordo com o script, o que melhora a infecciosidade do vídeo em 40%.
Essa resposta foi extraída do artigoVisionStory: geração de vídeos explicativos com IA a partir de imagens e textosO





























