Acesso no exterior: www.kdjingpai.com
Ctrl + D Marcar este site como favorito
Posição atual:fig. início " Respostas da IA

A implementação de código aberto do Gaze-LLE inclui várias variantes de modelos pré-treinados

2025-09-10 2.0 K

Flexibilidade na configuração do modelo

A biblioteca de código-fonte aberto do projeto oferece quatro versões de pré-treinamento baseadas em diferentes codificadores visuais: incluindo as redes de backbone ViT-B/14 e ViT-L/14 do DINOv2, cada uma das quais distingue entre o treinamento puro do GazeFollow e o treinamento de conjunto de dados mistos. A versão ViT-B do número de parâmetros é de cerca de 90 milhões, adequada para implantações móveis; a versão ViT-L do número de parâmetros é de cerca de 300 milhões, adequada para o cenário de precisão em primeiro lugar. A versão ViT-B tem cerca de 90 milhões de parâmetros, adequada para implantação móvel; a versão ViT-L tem cerca de 300 milhões de parâmetros, adequada para o cenário de precisão em primeiro lugar.

Os desenvolvedores podem carregar o modelo com uma única linha de código por meio do PyTorch Hub, e o módulo de transformação lida automaticamente com a normalização da imagem. O projeto também fornece notebooks de demonstração do Colab para mostrar todo o processo, desde a detecção de faces até a geração de mapas de calor. A configuração do ambiente requer apenas que o conda crie um ambiente virtual e instale a biblioteca de aceleração xformers, e a implantação pode ser concluída em 5 minutos.

Recomendado

Não consegue encontrar ferramentas de IA? Tente aqui!

Basta digitar a palavra-chave Acessibilidade Bing SearchA seção Ferramentas de IA deste site é uma maneira rápida e fácil de encontrar todas as ferramentas de IA deste site.

voltar ao topo

pt_BRPortuguês do Brasil