海外访问:www.kdjingpai.com
Ctrl + D 收藏本站
当前位置:首页 » AI答疑

如何部署dots.llm1模型?

2025-08-20 209

部署选项

dots.llm1提供了多种部署方式,适合不同使用场景。

1. Docker部署(推荐)

  • 安装Docker和NVIDIA Container Toolkit
  • 运行以下命令拉取镜像:
    docker run –gpus all -v ~/.cache/huggingface:/root/.cache/huggingface -p 8000:8000 –ipc=host rednotehilab/dots1:vllm-openai-v0.9.0.1 –model rednote-hilab/dots.llm1.base –tensor-parallel-size 8 –trust-remote-code –served-model-name dots1
  • 使用curl测试服务是否正常

2. 使用Hugging Face Transformers

  • 安装依赖:
    pip install transformers torch
  • 加载模型和分词器:
    from transformers import AutoTokenizer, AutoModelForCausalLM
    model_name = ‘rednote-hilab/dots.llm1.base’
    model = AutoModelForCausalLM.from_pretrained(model_name)

3. 使用vLLM进行高吞吐量推理

适合大规模推理场景:
vllm serve rednote-hilab/dots.llm1.base –port 8000 –tensor-parallel-size 8

相关推荐

找不到AI工具?在这试试!

输入关键词,即可 无障碍访问 必应 搜索,快速找到本站所有 AI 工具。

回顶部

zh_CN简体中文