海外访问:www.kdjingpai.com
Ctrl + D 收藏本站
当前位置:首页 » AI答疑

如何在本地通过Docker部署Tabby服务?

2025-08-25 1.2 K

本地部署Tabby需要遵循以下标准流程(基于最新v0.24.0版本):

  1. 环境准备
    • 安装Docker 20.10+版本
    • 建议配备NVIDIA驱动和CUDA Toolkit(推荐11.8/12.x版本以启用GPU加速)
    • 确保磁盘空间≥10GB
  2. 镜像获取:执行docker pull tabbyml/tabby拉取最新镜像
  3. 服务启动:复制以下命令并根据硬件调整参数:
    docker run -it --gpus all -p 8080:8080 -v $HOME/.tabby:/data tabbyml/tabby serve --model TabbyML/StarCoder-1B --device cuda --chat-model Qwen2-1.5B-Instruct
    • 移除--gpus all可纯CPU运行
    • 首次启动需5-10分钟下载模型
  4. 验证运行:访问http://localhost:8080查看欢迎页面

关键注意事项:数据会持久化存储在~/.tabby目录;可通过--parallelism 4提升并发性能;若部署在企业服务器需配置反向代理。

相关推荐

找不到AI工具?在这试试!

输入关键词,即可 无障碍访问 必应 搜索,快速找到本站所有 AI 工具。

回顶部

zh_CN简体中文