Zugang aus Übersee: www.kdjingpai.com
Ctrl + D Lesezeichen für diese Seite
Derzeitige Position:Abb. Anfang " AI-Antworten

Welche AI-Modelle werden von Jaaz unterstützt? Wie konfiguriert man lokale Modelle?

2025-08-20 446

Modellunterstützung und Lokalisierungskonfiguration

Jaaz hatBranchenweit einmalige Breite der Modellkompatibilität::

Unterstützte Hauptmodelle

  • Cloud-APIOpenAI GPT-Serie, Claude, Replicate, Deepseek, etc.
  • lokales ModellLLaMA, Stabile Diffusion usw., eingesetzt durch Ollama
  • Professionelle Image-ModelleFlux Kontext (Multi-Rollen-Konsistenz), gpt-image-1, Google Imagen, etc.
  • Bevorstehende UnterstützungVideogenerierungsmodelle Wan2.1 und Kling

Schritte zur Konfiguration des lokalen Modells

  1. MontageOllamaFramework (Windows/macOS/Linux)
  2. Laden Sie das Zielmodell als:ollama pull llama3
  3. Wählen Sie im Jaaz-EinstellungsfensterModellmanagement → Lokale Modelle
  4. Deaktivieren Sie die Cloud-API-Option, um einen vollständig lokalen Betrieb zu gewährleisten.
  5. Testgenerierung zur Bestätigung der erfolgreichen Verbindung

Vorteilstipp: Lokale Modelle erfordern zwar mehr Hardware (GPU-Unterstützung wird empfohlen), sind aberDaten verlassen nie das lokale GerätEs eignet sich besonders gut für den Umgang mit sensiblen Inhalten.

Empfohlen

Sie können keine AI-Tools finden? Versuchen Sie es hier!

Geben Sie einfach das Schlüsselwort Barrierefreiheit Bing-SucheDer Bereich KI-Tools auf dieser Website bietet eine schnelle und einfache Möglichkeit, alle KI-Tools auf dieser Website zu finden.

zurück zum Anfang