Acesso no exterior: www.kdjingpai.com
Ctrl + D Marcar este site como favorito
Posição atual:fig. início " Respostas da IA

Como faço para executar o modelo de destilação DeepSeek-R1 em meu dispositivo local?

2025-09-10 1.9 K

As etapas a seguir precisam ser seguidas para executar o modelo DeepSeek-R1-Distill-Llama-8B:

  1. Instalar o WasmEdgeExecutar o script de instalação curl -sSf https://raw.githubusercontent.com/WasmEdge/WasmEdge/master/utils/install_v2.sh | bash Configure o ambiente básico.
  2. Baixar arquivos de modeloObtenha o modelo de formato GGUF quantificado (cerca de 5,73 GB) com o comando curl -LO https://huggingface.co/second-state/DeepSeek-R1-Distill-Llama-8B-GGUF/resolve/main/DeepSeek-R1-Distill-Llama-8B-Q5_K_M.gguf.
  3. Obtendo o servidor de APIDownload do aplicativo Wasm pré-compilado llama-api-server.wasmgarantindo a compatibilidade entre plataformas.
  4. Início dos serviçosExecute o servidor em conjunto com o arquivo de modelo, especificando o modelo (-prompt-template llama-3-chat) e o tamanho do contexto (-ctx-size 8096).
  5. teste de interaçãoDescrição: Visite localhost:8080 em seu navegador ou envie uma solicitação curl para validar um recurso, como a pergunta "What is the capital of France?" (Qual é a capital da França?). Por exemplo, perguntando "Onde fica a capital da França?

Esse processo aproveita a natureza leve do Wasm e evita dependências complexas, tornando-o adequado para dispositivos com recursos limitados.

Recomendado

Não consegue encontrar ferramentas de IA? Tente aqui!

Basta digitar a palavra-chave Acessibilidade Bing SearchA seção Ferramentas de IA deste site é uma maneira rápida e fácil de encontrar todas as ferramentas de IA deste site.

voltar ao topo