海外访问:www.kdjingpai.com
Ctrl + D 收藏本站
当前位置:首页 » AI答疑

如何在Sim中使用本地大语言模型?

2025-08-19 149

使用Sim集成本地大语言模型需要以下步骤:

  1. 首先通过脚本拉取所需模型:./apps/sim/scripts/ollama_docker.sh pull <model_name>
  2. 根据硬件环境选择启动方式:
    • GPU环境:docker compose --profile local-gpu -f docker-compose.ollama.yml up -d
    • CPU环境:docker compose --profile local-cpu -f docker-compose.ollama.yml up -d
  3. 在工作流配置中选择已拉取的本地模型
  4. 根据需要指定GPU或CPU模式
  5. 测试模型响应,确保工作流正常运行

需要注意的是,本地模型需要较大的存储空间和计算资源,特别是GPU环境能提供更好的性能。

相关推荐

找不到AI工具?在这试试!

输入关键词,即可 无障碍访问 必应 搜索,快速找到本站所有 AI 工具。

回顶部

zh_CN简体中文