Zugang aus Übersee: www.kdjingpai.com
Ctrl + D Lesezeichen für diese Seite

HiOllama ist eine benutzerfreundliche Schnittstelle, die auf Python und Gradio basiert und für die Interaktion mit Ollama-Modellen entwickelt wurde. Sie bietet eine einfache und intuitive Weboberfläche, die Textgenerierung in Echtzeit und Funktionen zur Modellverwaltung unterstützt. Die Benutzer können Parameter wie die Temperatur und die maximale Anzahl von Token einstellen. Außerdem unterstützt es die Verwaltung mehrerer Ollama-Modelle und die benutzerdefinierte Konfiguration der Server-URL.

EMPFEHLUNG: Ollama gegen Open WebUI Die Integration ist einfacher, aber die Bereitstellungskosten sind etwas höher.

HiOllama:与本地Ollama模型交互的简洁聊天界面-1

 

Funktionsliste

  • Einfache und intuitive Webschnittstelle
  • Texterstellung in Echtzeit
  • Einstellbare Parameter (Temperatur, maximale Anzahl von Spielsteinen)
  • Funktionen der Modellverwaltung
  • Unterstützung für mehrere Ollama-Modelle
  • Benutzerdefinierte Server-URL-Konfiguration

 

Hilfe verwenden

Installationsschritte

  1. Klon-Lagerhaus:
    git clone https://github.com/smaranjitghose/HiOllama.git
    cd HiOllama
    
  2. Erstellen und aktivieren Sie eine virtuelle Umgebung:
    • Windows:
      python -m venv env
      .\env\Scripts\activate
      
    • Linux/Mac:
      python3 -m venv env
      source env/bin/activate
      
  3. Installieren Sie die erforderlichen Pakete:
    pip install -r requirements.txt
    
  4. Installieren Sie Ollama (falls nicht bereits installiert):
    • Linux/Mac:
      curl -fsSL https://ollama.ai/install.sh | sh
      
    • Windows:
      Installieren Sie zuerst WSL2 und führen Sie dann den oben genannten Befehl aus.

Verwendungsschritte

  1. Starten Sie den Ollama-Dienst:
    ollama serve
    
  2. Lauf HiOllama:
    python main.py
    
  3. Öffnen Sie Ihren Browser und navigieren Sie zu:
    http://localhost:7860
    

Schnellstart-Anleitung

  1. Wählen Sie ein Modell aus dem Dropdown-Menü.
  2. Geben Sie die Aufforderung in den Textbereich ein.
  3. Passen Sie die Temperatur und die maximale Anzahl von Spielsteinen nach Bedarf an.
  4. Klicken Sie auf "Generieren", um die Antwort zu erhalten.
  5. Verwenden Sie die Option Modellverwaltung, um neue Modelle einzuziehen.

konfigurieren.

Die Standardeinstellungen können in dermain.pyGeändert in:

DEFAULT_OLLAMA_URL = "http://localhost:11434"
DEFAULT_MODEL_NAME = "llama3"

allgemeine Probleme

  • VerbindungsfehlerOllama: Stellen Sie sicher, dass Ollama läuft (ollama serve), überprüfen Sie, ob die Server-URL korrekt ist, und stellen Sie sicher, dass der Port 11434 zugänglich ist.
  • Modell nicht gefunden: Ziehen Sie zuerst das Modell:ollama pull model_nameprüfen Sie die verfügbaren Modelle:ollama list
  • Hafenkonflikt: inmain.pyÄndern Sie den Anschluss in der
    app.launch(server_port=7860)  # 更改为其他端口
0Lesezeichen
0Gelobt
🍐 Ente & Birne AI Artikel Smart Writer
Auswahl → Schreiben → Veröffentlichen
Vollautomatisch!
WordPress AI-Schreib-Plugin
Mehr als 500 Inhaltsersteller nutzen
🎯Intelligente AuswahlBatch-Generation: Abschied von der Erschöpfung
🧠Abrufverbesserung: Vernetzung + Wissensbasis mit Tiefgang
VollautomatischSchreiben → Grafik → Veröffentlichung
💎Dauerhaft kostenlosKostenlose Version = Bezahlte Version, unbegrenzt
🔥 Laden Sie das Plugin jetzt kostenlos herunter!
✅ Für immer frei · 🔓 100% Offene Quelle · 🔒 Lokale Speicherung von Daten

Empfohlen

Sie können keine AI-Tools finden? Versuchen Sie es hier!

Geben Sie Schlüsselwörter ein.Zugänglichkeit zur Bing-SucheAI-Tools, finden Sie schnell die AI-Tools auf dieser Website.

Neue Veröffentlichungen

zurück zum Anfang