海外访问:www.kdjingpai.com
Ctrl + D 收藏本站

Sim是一个开源的 AI 代理工作流构建平台,旨在帮助用户快速创建和部署连接各种工具的大语言模型(LLM)。它提供直观的界面,适合开发者、技术爱好者和企业用户。Sim Studio 支持云端和本地部署,灵活性高,兼容多种运行环境。用户可以通过简单的 NPM 命令或 Docker Compose 快速启动,也可选择手动配置或开发容器方式运行。平台支持本地模型加载,适配 NVIDIA GPU 或 CPU 环境。Sim Studio 强调轻量级设计和用户友好体验,适合快速开发 AI 驱动的工作流。

 

功能列表

  • 工作流构建:通过直观界面快速设计 AI 代理工作流,连接外部工具和数据源。
  • 多种部署方式:支持云端托管、本地运行(NPM、Docker Compose、开发容器、手动配置)。
  • 本地模型支持:集成本地大语言模型,通过脚本拉取模型并适配 GPU 或 CPU 环境。
  • 实时服务器:提供实时通信功能,支持动态工作流调整和数据交互。
  • 数据库集成:支持通过 Drizzle ORM 配置数据库,简化数据管理。
  • 开源与社区贡献:基于 Apache-2.0 许可证,鼓励社区参与开发和优化。

使用帮助

安装与部署

Sim Studio 提供了多种安装和部署方式,满足不同用户需求。以下是详细步骤:

方法 1:使用 NPM 包(最简单)

这是最快速的本地部署方式,只需安装 Docker 即可。

  1. 确保已安装并运行 Docker。
  2. 在终端运行以下命令:
    npx simstudio
    
  3. 打开浏览器,访问 http://localhost:3000/
  4. 可选参数:
    • -p, --port <port>:指定运行端口(默认 3000)。
    • --no-pull:跳过拉取最新 Docker 镜像。

方法 2:使用 Docker Compose

适合需要更多控制的用户。

  1. 克隆仓库:
    git clone https://github.com/simstudioai/sim.git
    cd sim
    
  2. 运行 Docker Compose:
    docker compose -f docker-compose.prod.yml up -d
    
  3. 访问 http://localhost:3000/
  4. 若使用本地模型:
    • 拉取模型:
      ./apps/sim/scripts/ollama_docker.sh pull <model_name>
      
    • 启动支持本地模型的环境:
      • GPU 环境:
        docker compose --profile local-gpu -f docker-compose.ollama.yml up -d
        
      • CPU 环境:
        docker compose --profile local-cpu -f docker-compose.ollama.yml up -d
        
    • 服务器部署:编辑 docker-compose.prod.yml,设置 OLLAMA_URL 为服务器公网 IP(例如 http://1.1.1.1:11434),然后重新运行。

方法 3:使用开发容器

适合使用 VS Code 的开发者。

  1. 安装 VS Code 和 Remote – Containers 扩展。
  2. 打开克隆的 Sim Studio 项目,VS Code 会提示“Reopen in Container”。
  3. 点击提示,项目自动在容器中运行。
  4. 在终端运行:
    bun run dev:full
    

    或使用快捷命令:

    sim-start
    

方法 4:手动配置

适合需要完全自定义的用户。

  1. 克隆仓库并安装依赖:
    git clone https://github.com/simstudioai/sim.git
    cd sim
    bun install
    
  2. 配置环境变量:
    cd apps/sim
    cp .env.example .env
    

    编辑 .env 文件,设置 DATABASE_URLBETTER_AUTH_SECRET 和 BETTER_AUTH_URL

  3. 初始化数据库:
    bunx drizzle-kit push
    
  4. 启动服务:
    • 运行 Next.js 前端:
      bun run dev
      
    • 运行实时服务器:
      bun run dev:sockets
      
    • 同时运行两者(推荐):
      bun run dev:full
      

主要功能操作流程

  1. 创建 AI 工作流
    • 登录 Sim Studio(云端或本地)。
    • 在界面选择“新建工作流”。
    • 拖拽模块或通过模板配置 AI 代理,连接工具(如 Slack、Notion 或自定义 API)。
    • 设置触发条件和输出目标,保存并测试工作流。
  2. 使用本地模型
    • 拉取模型(如 LLaMA 或其他开源模型):
      ./apps/sim/scripts/ollama_docker.sh pull <model_name>
      
    • 在工作流配置中选择本地模型,指定 GPU 或 CPU 模式。
    • 测试模型响应,确保工作流正常运行。
  3. 实时通信
    • Sim Studio 的实时服务器支持动态调整工作流。
    • 在界面中启用实时模式,观察数据流和输出结果。
    • 可通过 API 或界面手动触发工作流更新。
  4. 数据库管理
    • 使用 Drizzle ORM 配置数据库,存储工作流数据。
    • 在 .env 中设置 DATABASE_URL,运行 bunx drizzle-kit push 初始化。
    • 通过界面查看和管理数据表。

注意事项

  • 确保 Docker 版本为最新,以避免兼容性问题。
  • 本地模型需要较大存储空间和计算资源,建议使用高性能 GPU。
  • 服务器部署需配置公网 IP 和端口,确保外部访问正常。

应用场景

  1. 自动化客服
    使用 Sim Studio 构建 AI 客服代理,连接 CRM 系统和聊天工具,自动回复客户咨询,减少人工干预。
  2. 内容生成
    开发者可通过本地模型生成文章、代码或设计草稿,集成 Notion 或 Google Drive 存储输出。
  3. 数据分析工作流
    配置 AI 代理分析 CSV 数据,生成可视化报告,连接 Tableau 或自定义 API 自动化处理。
  4. 个人生产力工具
    连接日历、邮件和任务管理工具,自动安排日程或生成会议摘要。

QA

  1. Sim Studio 是否免费?
    Sim Studio 是基于 Apache-2.0 许可证的开源项目,免费使用。云端版本可能涉及托管费用,具体需查看官方定价。
  2. 需要编程经验吗?
    不需要。界面操作简单,适合非技术用户。但开发者可通过手动配置或 API 实现更复杂功能。
  3. 支持哪些大语言模型?
    支持多种开源模型(如 LLaMA),可通过脚本拉取并在本地运行。
  4. 如何贡献代码?
    参考 GitHub 仓库的 Contributing Guide,提交 Pull Request 即可参与开发。
0已收藏
0已赞

相关推荐

找不到AI工具?在这试试!

输入关键词,即可 无障碍访问 必应 搜索,快速找到本站所有 AI 工具。

回顶部

zh_CN简体中文