海外访问:www.kdjingpai.com
Ctrl + D 收藏本站
当前位置:首页 » AI答疑

Archon 框架支持哪些AI模型的集成?

2025-08-30 1.5 K

Archon 框架在设计时考虑了兼容性问题,支持多种 AI 模型的集成,包括云端服务和本地运行模型。

  • 云端服务模型:支持 OpenAI(如 GPT-4)、Anthropic 和 OpenRouter API。这些服务通过 API 密钥进行连接,可以实现云端强大的 AI 计算能力。
  • 本地运行模型:支持 Ollama 本地模型运行,用户可以将服务运行在 localhost:11434。这种方式适合对数据隐私要求较高的场景。

使用注意事项:

  • 只有 OpenAI 模型支持 Streamlit UI 的流式输出功能。
  • 其他模型(如 Ollama)仅支持非流式输出。
  • 在选择模型时需要根据项目需求和计算资源进行权衡,云端服务通常能力更强但成本较高,本地模型更适合小规模或隐私敏感的应用。

模型配置可以通过环境变量进行设置,例如在 .env 文件中指定 PRIMARY_MODELREASONER_MODEL

相关推荐

找不到AI工具?在这试试!

输入关键词,即可 无障碍访问 必应 搜索,快速找到本站所有 AI 工具。

回顶部

zh_CN简体中文