Sim是一个开源的 AI 代理工作流构建平台,旨在帮助用户快速创建和部署连接各种工具的大语言模型(LLM)。它提供直观的界面,适合开发者、技术爱好者和企业用户。Sim Studio 支持云端和本地部署,灵活性高,兼容多种运行环境。用户可以通过简单的 NPM 命令或 Docker Compose 快速启动,也可选择手动配置或开发容器方式运行。平台支持本地模型加载,适配 NVIDIA GPU 或 CPU 环境。Sim Studio 强调轻量级设计和用户友好体验,适合快速开发 AI 驱动的工作流。
功能列表
- 工作流构建:通过直观界面快速设计 AI 代理工作流,连接外部工具和数据源。
- 多种部署方式:支持云端托管、本地运行(NPM、Docker Compose、开发容器、手动配置)。
- 本地模型支持:集成本地大语言模型,通过脚本拉取模型并适配 GPU 或 CPU 环境。
- 实时服务器:提供实时通信功能,支持动态工作流调整和数据交互。
- 数据库集成:支持通过 Drizzle ORM 配置数据库,简化数据管理。
- 开源与社区贡献:基于 Apache-2.0 许可证,鼓励社区参与开发和优化。
使用帮助
安装与部署
Sim Studio 提供了多种安装和部署方式,满足不同用户需求。以下是详细步骤:
方法 1:使用 NPM 包(最简单)
这是最快速的本地部署方式,只需安装 Docker 即可。
- 确保已安装并运行 Docker。
- 在终端运行以下命令:
npx simstudio
- 打开浏览器,访问
http://localhost:3000/
。 - 可选参数:
-p, --port <port>
:指定运行端口(默认 3000)。--no-pull
:跳过拉取最新 Docker 镜像。
方法 2:使用 Docker Compose
适合需要更多控制的用户。
- 克隆仓库:
git clone https://github.com/simstudioai/sim.git cd sim
- 运行 Docker Compose:
docker compose -f docker-compose.prod.yml up -d
- 访问
http://localhost:3000/
。 - 若使用本地模型:
- 拉取模型:
./apps/sim/scripts/ollama_docker.sh pull <model_name>
- 启动支持本地模型的环境:
- GPU 环境:
docker compose --profile local-gpu -f docker-compose.ollama.yml up -d
- CPU 环境:
docker compose --profile local-cpu -f docker-compose.ollama.yml up -d
- GPU 环境:
- 服务器部署:编辑
docker-compose.prod.yml
,设置OLLAMA_URL
为服务器公网 IP(例如http://1.1.1.1:11434
),然后重新运行。
- 拉取模型:
方法 3:使用开发容器
适合使用 VS Code 的开发者。
- 安装 VS Code 和 Remote – Containers 扩展。
- 打开克隆的 Sim Studio 项目,VS Code 会提示“Reopen in Container”。
- 点击提示,项目自动在容器中运行。
- 在终端运行:
bun run dev:full
或使用快捷命令:
sim-start
方法 4:手动配置
适合需要完全自定义的用户。
- 克隆仓库并安装依赖:
git clone https://github.com/simstudioai/sim.git cd sim bun install
- 配置环境变量:
cd apps/sim cp .env.example .env
编辑
.env
文件,设置DATABASE_URL
、BETTER_AUTH_SECRET
和BETTER_AUTH_URL
。 - 初始化数据库:
bunx drizzle-kit push
- 启动服务:
- 运行 Next.js 前端:
bun run dev
- 运行实时服务器:
bun run dev:sockets
- 同时运行两者(推荐):
bun run dev:full
- 运行 Next.js 前端:
主要功能操作流程
- 创建 AI 工作流:
- 登录 Sim Studio(云端或本地)。
- 在界面选择“新建工作流”。
- 拖拽模块或通过模板配置 AI 代理,连接工具(如 Slack、Notion 或自定义 API)。
- 设置触发条件和输出目标,保存并测试工作流。
- 使用本地模型:
- 拉取模型(如 LLaMA 或其他开源模型):
./apps/sim/scripts/ollama_docker.sh pull <model_name>
- 在工作流配置中选择本地模型,指定 GPU 或 CPU 模式。
- 测试模型响应,确保工作流正常运行。
- 拉取模型(如 LLaMA 或其他开源模型):
- 实时通信:
- Sim Studio 的实时服务器支持动态调整工作流。
- 在界面中启用实时模式,观察数据流和输出结果。
- 可通过 API 或界面手动触发工作流更新。
- 数据库管理:
- 使用 Drizzle ORM 配置数据库,存储工作流数据。
- 在
.env
中设置DATABASE_URL
,运行bunx drizzle-kit push
初始化。 - 通过界面查看和管理数据表。
注意事项
- 确保 Docker 版本为最新,以避免兼容性问题。
- 本地模型需要较大存储空间和计算资源,建议使用高性能 GPU。
- 服务器部署需配置公网 IP 和端口,确保外部访问正常。
应用场景
- 自动化客服
使用 Sim Studio 构建 AI 客服代理,连接 CRM 系统和聊天工具,自动回复客户咨询,减少人工干预。 - 内容生成
开发者可通过本地模型生成文章、代码或设计草稿,集成 Notion 或 Google Drive 存储输出。 - 数据分析工作流
配置 AI 代理分析 CSV 数据,生成可视化报告,连接 Tableau 或自定义 API 自动化处理。 - 个人生产力工具
连接日历、邮件和任务管理工具,自动安排日程或生成会议摘要。
QA
- Sim Studio 是否免费?
Sim Studio 是基于 Apache-2.0 许可证的开源项目,免费使用。云端版本可能涉及托管费用,具体需查看官方定价。 - 需要编程经验吗?
不需要。界面操作简单,适合非技术用户。但开发者可通过手动配置或 API 实现更复杂功能。 - 支持哪些大语言模型?
支持多种开源模型(如 LLaMA),可通过脚本拉取并在本地运行。 - 如何贡献代码?
参考 GitHub 仓库的 Contributing Guide,提交 Pull Request 即可参与开发。