模型支持与本地化配置
Jaaz具有业界罕见的模型兼容广度:
支持的主要模型
- 云端API:OpenAI GPT系列、Claude、Replicate、Deepseek等
- 本地模型:通过Ollama部署的LLaMA、Stable Diffusion等
- 专业图像模型:Flux Kontext(多角色一致性)、gpt-image-1、Google Imagen等
- 即将支持:视频生成模型Wan2.1和Kling
本地模型配置步骤
- 安装Ollama框架(Windows/macOS/Linux)
- 下载目标模型如:
ollama pull llama3
- 在Jaaz设置面板选择模型管理→本地模型
- 禁用云端API选项确保完全本地运行
- 测试生成确认连接成功
优势提示:本地模型虽需较高硬件(建议GPU支持),但数据全程不离开本地设备,特别适合处理敏感内容。
本答案来源于文章《Jaaz:本地运行的AI创意设计与图像生成智能体》