Acesso no exterior: www.kdjingpai.com
Ctrl + D Marcar este site como favorito
Posição atual:fig. início " Respostas da IA

Mecanismo de atenção retangular como um avanço tecnológico fundamental para a recuperação eficiente de conhecimento no KBLaM

2025-08-27 1.6 K
Link diretoVisualização móvel
qrcode

Explicação da arquitetura de atenção inovadora

O inovador mecanismo de atenção retangular (RA) do KBLaM armazena vetores de conhecimento em matrizes de peso separadas, desacoplando as dimensões de chave-valor. Diferentemente dos mecanismos tradicionais de autoatenção, o design permite que a dimensão da chave de conhecimento (K) seja muito maior do que a dimensão do valor (V) (uma proporção de 2048:256 foi usada nos experimentos), criando uma estrutura de armazenamento de conhecimento "estreita e profunda". O whitepaper técnico mostra que essa arquitetura permite que o modelo suporte a recuperação rápida de mais de 1 milhão de registros de conhecimento com latência de resposta de consulta controlada para menos de 50 ms (ambiente A100), mantendo um estado oculto de 768 dimensões. Foi demonstrado que o mecanismo melhora a precisão da atenção em 191 TP3T em relação ao Transformer padrão em tarefas como a previsão de propriedades de moléculas químicas que exigem a recuperação precisa de conhecimento especializado.

Recomendado

Não consegue encontrar ferramentas de IA? Tente aqui!

Basta digitar a palavra-chave Acessibilidade Bing SearchA seção Ferramentas de IA deste site é uma maneira rápida e fácil de encontrar todas as ferramentas de IA deste site.

voltar ao topo

pt_BRPortuguês do Brasil