Zugang aus Übersee: www.kdjingpai.com
Ctrl + D Lesezeichen für diese Seite
Derzeitige Position:Abb. Anfang " AI-Antworten

Welche Arten von großen Sprachmodellen unterstützt MaxKB beim Andocken? Wie konfiguriert man ein lokales privates Modell?

2025-09-10 2.0 K

MaxKB verwendet eine offene Modell-Docking-Architektur und unterstützt drei Hauptarten des Modellzugriffs:

  • Öffentliches Cloud-ModellDazu gehören die OpenAI GPT-Serie, Anthropic Claude, Wisdom Spectrum AI und andere nationale und internationale Mainstream-APIs.
  • lokales Open-Source-ModellUnterstützung für selbst gehostete Modelle wie Llama 3, ChatGLM3, Qwen, etc. über Ollama oder vLLM-Zugang
  • Unternehmensspezifische ModelleKompatibel mit jedem lokalisierten Bereitstellungsmodell, das mit der OpenAI API-Spezifikation konform ist

Spezifische Schritte zur Konfiguration eines lokalen privaten Modells:

  1. Wählen Sie die Option "Benutzerdefiniertes Modell" im Modul Modellverwaltung
  2. Geben Sie die API-Adresse des Modells ein (z. B. http://localhost:11434/api/generate).
  3. Parameter wie Modellname und Kontextlänge einstellen
  4. Konfiguration nach Verbindungstest speichern

Das System unterstützt auch Modell-Hot-Switching und AB-Tests, bei denen je nach Geschäftsszenario automatisch das am besten geeignete Modell zugewiesen wird. So kann beispielsweise für Kundendienstszenarien das kostengünstigere kleine 7B-Modell verwendet werden, während für das Parsen technischer Dokumente ein großes Modell mit 70B-Parametern verwendet werden kann.

Empfohlen

Sie können keine AI-Tools finden? Versuchen Sie es hier!

Geben Sie einfach das Schlüsselwort Barrierefreiheit Bing-SucheDer Bereich KI-Tools auf dieser Website bietet eine schnelle und einfache Möglichkeit, alle KI-Tools auf dieser Website zu finden.

zurück zum Anfang

de_DEDeutsch