Zugang aus Übersee: www.kdjingpai.com
Ctrl + D Lesezeichen für diese Seite

Sim ist eine Open-Source-Plattform für die Erstellung von KI-Agenten-Workflows, mit der Benutzer schnell große Sprachmodelle (LLMs) erstellen und einsetzen können, die verschiedene Tools miteinander verbinden. Sim Studio unterstützt sowohl Cloud- als auch lokale Implementierungen und ist flexibel und kompatibel mit einer Vielzahl von Betriebsumgebungen. Benutzer können es schnell mit einfachen NPM-Befehlen oder Docker Compose starten oder es manuell durch Konfiguration oder Entwicklung von Containern ausführen. Die Plattform unterstützt das lokale Laden von Modellen und ist mit NVIDIA GPU- oder CPU-Umgebungen kompatibel.Sim Studio legt Wert auf ein schlankes Design und eine benutzerfreundliche Erfahrung für die schnelle Entwicklung von KI-gesteuerten Workflows.

 

Funktionsliste

  • Konstruktion des ArbeitsablaufsSchnelles Entwerfen von KI-Agenten-Workflows und Verbinden mit externen Tools und Datenquellen über eine intuitive Benutzeroberfläche.
  • Mehrere EinsatzoptionenUnterstützung für Cloud-Hosting, lokale Ausführung (NPM, Docker Compose, Entwicklungscontainer, manuelle Konfiguration).
  • Lokale ModellunterstützungIntegration großer nativer Sprachmodelle, die durch Skripte gezogen und an GPU- oder CPU-Umgebungen angepasst werden können.
  • Live-ServerEchtzeit-Kommunikationsfunktionen zur Unterstützung dynamischer Workflow-Anpassungen und Dateninteraktionen.
  • Datenbank-IntegrationDrizzle ORM: Unterstützt die Konfiguration von Datenbanken durch Drizzle ORM, um die Datenverwaltung zu vereinfachen.
  • Open Source und Beiträge der GemeinschaftBasierend auf der Apache-2.0-Lizenz wird die Beteiligung der Gemeinschaft an der Entwicklung und Optimierung gefördert.

Hilfe verwenden

Installation und Einsatz

Sim Studio bietet eine Vielzahl von Installations- und Bereitstellungsoptionen, um den unterschiedlichen Benutzeranforderungen gerecht zu werden. Nachfolgend finden Sie die detaillierten Schritte:

Methode 1: NPM-Paket verwenden (am einfachsten)

Dies ist der schnellste Weg für eine lokale Bereitstellung: Installieren Sie einfach Docker.

  1. Stellen Sie sicher, dass Docker installiert ist und läuft.
  2. Führen Sie den folgenden Befehl im Terminal aus:
    npx simstudio
    
  3. Öffnen Sie Ihren Browser und besuchen Sie http://localhost:3000/.
  4. Optionale Parameter:
    • -p, --port <port>Gibt den Run-Port an (Standard 3000).
    • --no-pullÜberspringen Sie das Ziehen des neuesten Docker-Images.

Methode 2: Docker Compose verwenden

Ideal für Benutzer, die mehr Kontrolle benötigen.

  1. Klon-Lagerhaus:
    git clone https://github.com/simstudioai/sim.git
    cd sim
    
  2. Führen Sie Docker Compose aus:
    docker compose -f docker-compose.prod.yml up -d
    
  3. Interviews http://localhost:3000/.
  4. Wenn ein lokales Modell verwendet wird:
    • Ziehen Sie das Modell:
      ./apps/sim/scripts/ollama_docker.sh pull <model_name>
      
    • Schaffung eines Umfelds, das lokale Modelle unterstützt:
      • GPU-Umgebung:
        docker compose --profile local-gpu -f docker-compose.ollama.yml up -d
        
      • CPU-Umgebung:
        docker compose --profile local-cpu -f docker-compose.ollama.yml up -d
        
    • Server-Einsatz: Editorial docker-compose.prod.ymlEinstellungen OLLAMA_URL ist die öffentliche IP des Servers (z. B. http://1.1.1.1:11434), und führen Sie es dann erneut aus.

Ansatz 3: Verwendung von Entwicklungscontainern

Für Entwickler, die VS Code verwenden.

  1. Installieren Sie VS Code und die Erweiterung Remote - Containers.
  2. Wenn Sie das geklonte Sim Studio-Projekt öffnen, fordert VS Code Sie auf, es erneut in einem Container zu öffnen.
  3. Klicken Sie auf die Eingabeaufforderung und das Projekt wird automatisch im Container ausgeführt.
  4. Läuft im Terminal:
    bun run dev:full
    

    oder verwenden Sie einen Kurzbefehl:

    sim-start
    

Methode 4: Manuelle Konfiguration

Ideal für Benutzer, die eine vollständige Anpassung benötigen.

  1. Klonen Sie das Repository und installieren Sie die Abhängigkeiten:
    git clone https://github.com/simstudioai/sim.git
    cd sim
    bun install
    
  2. Konfigurieren Sie die Umgebungsvariablen:
    cd apps/sim
    cp .env.example .env
    

    Compiler .env Datei, setzen Sie die DATABASE_URLundBETTER_AUTH_SECRET im Gesang antworten BETTER_AUTH_URL.

  3. Initialisieren Sie die Datenbank:
    bunx drizzle-kit push
    
  4. Starten Sie den Dienst:
    • Starten Sie das Next.js Frontend:
      bun run dev
      
    • Betreiben Sie einen Live-Server:
      bun run dev:sockets
      
    • Führen Sie beide gleichzeitig aus (empfohlen):
      bun run dev:full
      

Hauptfunktionen

  1. Erstellen von AI-Workflows::
    • Melden Sie sich bei Sim Studio an (Cloud oder lokal).
    • Wählen Sie in der Schnittstelle "Neuer Workflow".
    • Ziehen Sie Module per Drag & Drop oder konfigurieren Sie KI-Agenten über Vorlagen, um eine Verbindung zu Tools wie Slack, Notion oder benutzerdefinierten APIs herzustellen.
    • Legen Sie Auslösebedingungen und Ausgabeziele fest, speichern und testen Sie den Workflow.
  2. Lokale Modelle verwenden::
    • Pull-Modelle (z. B. LLaMA oder andere Open-Source-Modelle):
      ./apps/sim/scripts/ollama_docker.sh pull <model_name>
      
    • Wählen Sie Lokales Modell in der Workflow-Konfiguration, um den GPU- oder CPU-Modus festzulegen.
    • Testen Sie die Reaktion des Modells, um sicherzustellen, dass der Arbeitsablauf ordnungsgemäß funktioniert.
  3. Echtzeitkommunikation::
    • Der Real-Time Server von Sim Studio unterstützt die dynamische Anpassung von Arbeitsabläufen.
    • Aktivieren Sie den Echtzeitmodus in der Schnittstelle, um den Datenfluss und die Ausgabeergebnisse zu beobachten.
    • Workflow-Aktualisierungen können manuell über die API oder die Schnittstelle ausgelöst werden.
  4. Verwaltung von Datenbanken::
    • Verwenden Sie Drizzle ORM, um eine Datenbank zum Speichern von Workflow-Daten zu konfigurieren.
    • existieren .env aufstellen DATABASE_URLLaufen bunx drizzle-kit push Initialisierung.
    • Anzeigen und Verwalten von Datentabellen über die Schnittstelle.

caveat

  • Stellen Sie sicher, dass die Docker-Version auf dem neuesten Stand ist, um Kompatibilitätsprobleme zu vermeiden.
  • Lokale Modelle benötigen viel Speicherplatz und Rechenressourcen, weshalb leistungsstarke GPUs empfohlen werden.
  • Die Serverbereitstellung erfordert die Konfiguration öffentlicher IPs und Ports, um einen ordnungsgemäßen externen Zugriff zu gewährleisten.

Anwendungsszenario

  1. Automatisierte Kundenbetreuung
    Verwenden Sie Sim Studio, um KI-Kundendienstagenten zu erstellen, die sich mit CRM-Systemen und Chat-Tools verbinden, um Kundenanfragen automatisch und mit weniger menschlichen Eingriffen zu beantworten.
  2. Generierung von Inhalten
    Entwickler können Artikel, Code oder Designentwürfe aus lokalen Modellen generieren und dabei die Begriff oder Google Drive Speicherausgabe.
  3. Arbeitsablauf der Datenanalyse
    Konfigurieren Sie KI-Agenten, um CSV-Daten zu analysieren, visuelle Berichte zu erstellen, Verbindungen zu Tableau oder benutzerdefinierten APIs herzustellen, um die Verarbeitung zu automatisieren.
  4. Persönliche Produktivitätswerkzeuge
    Verbinden Sie Kalender-, E-Mail- und Aufgabenverwaltungstools, um automatisch Besprechungen zu planen oder Zusammenfassungen zu erstellen.

QA

  1. Ist Sim Studio kostenlos?
    Sim Studio ist ein Open-Source-Projekt, das auf der Apache-2.0-Lizenz basiert und kostenlos genutzt werden kann. Für die Cloud-Version können Hosting-Gebühren anfallen; Details finden Sie in der offiziellen Preisübersicht.
  2. Programmiererfahrung erforderlich?
    Nicht erforderlich. Die Schnittstelle ist einfach und für technisch nicht versierte Benutzer geeignet. Entwickler können jedoch komplexere Funktionen durch manuelle Konfiguration oder APIs implementieren.
  3. Welche großen Sprachmodelle werden unterstützt?
    Unterstützt eine breite Palette von Open-Source-Modellen (z. B. LLaMA), die über Skripte abgerufen und lokal ausgeführt werden können.
  4. Wie kann ich Code beisteuern?
    Lesen Sie den Contributing Guide im GitHub-Repository und reichen Sie einen Pull Request ein, um sich an der Entwicklung zu beteiligen.
0Lesezeichen
0Gelobt

Empfohlen

Sie können keine AI-Tools finden? Versuchen Sie es hier!

Geben Sie einfach das Schlüsselwort Barrierefreiheit Bing-SucheDer Bereich KI-Tools auf dieser Website bietet eine schnelle und einfache Möglichkeit, alle KI-Tools auf dieser Website zu finden.

zurück zum Anfang

de_DEDeutsch