Modellunterstützung und Lokalisierungskonfiguration
Jaaz hatBranchenweit einmalige Breite der Modellkompatibilität::
Unterstützte Hauptmodelle
- Cloud-APIOpenAI GPT-Serie, Claude, Replicate, Deepseek, etc.
- lokales ModellLLaMA, Stabile Diffusion usw., eingesetzt durch Ollama
- Professionelle Image-ModelleFlux Kontext (Multi-Rollen-Konsistenz), gpt-image-1, Google Imagen, etc.
- Bevorstehende UnterstützungVideogenerierungsmodelle Wan2.1 und Kling
Schritte zur Konfiguration des lokalen Modells
- MontageOllamaFramework (Windows/macOS/Linux)
- Laden Sie das Zielmodell als:
ollama pull llama3 - Wählen Sie im Jaaz-EinstellungsfensterModellmanagement → Lokale Modelle
- Deaktivieren Sie die Cloud-API-Option, um einen vollständig lokalen Betrieb zu gewährleisten.
- Testgenerierung zur Bestätigung der erfolgreichen Verbindung
Vorteilstipp: Lokale Modelle erfordern zwar mehr Hardware (GPU-Unterstützung wird empfohlen), sind aberDaten verlassen nie das lokale GerätEs eignet sich besonders gut für den Umgang mit sensiblen Inhalten.
Diese Antwort stammt aus dem ArtikelJaaz: eine lokal betriebene KI-Intelligenz für kreatives Design und BilderzeugungDie































