Acesso no exterior: www.kdjingpai.com
Ctrl + D Marcar este site como favorito
Posição atual:fig. início " Respostas da IA

Como implantar o modelo dots.llm1?

2025-08-20 222

Opções de implementação

O dots.llm1 oferece uma variedade de métodos de implementação para diferentes cenários de uso.

1. implantação do Docker (recomendado)

  • Instalação do Docker e do kit de ferramentas para contêineres da NVIDIA
  • Execute o seguinte comando para extrair a imagem:
    docker run -gpus all -v ~/.cache/huggingface:/root/.cache/huggingface -p 8000:8000 -ipc=host rednotehilab/dots1. vllm-openai-v0.9.0.1 -model rednote-hilab/dots.llm1.base -tensor-parallel-size 8 -trust-remote-code -served-model-name dots1
  • Use o curl para testar se o serviço está funcionando

2. uso de transformadores de rosto de abraçar

  • Instale a dependência:
    pip install transformers torch
  • Carregamento de modelos e divisores:
    from transformers import AutoTokenizer, AutoModelForCausalLM
    model_name = 'rednote-hilab/dots.llm1.base'
    model = AutoModelForCausalLM.from_pretrained(nome_do_modelo)

3. raciocínio de alto rendimento usando vLLM

Adequado para cenários de raciocínio em grande escala:
vllm serve rednote-hilab/dots.llm1.base -port 8000 -tensor-parallel-size 8

Recomendado

Não consegue encontrar ferramentas de IA? Tente aqui!

Basta digitar a palavra-chave Acessibilidade Bing SearchA seção Ferramentas de IA deste site é uma maneira rápida e fácil de encontrar todas as ferramentas de IA deste site.

voltar ao topo

pt_BRPortuguês do Brasil