Zugang aus Übersee: www.kdjingpai.com
Ctrl + D Lesezeichen für diese Seite

HiveChat ist ein KI-Chatbot für kleine und mittelgroße Teams, der es Administratoren ermöglicht, mehrere KI-Modelle (wie Deepseek, OpenAI, Claude und Gemini) auf einmal zu konfigurieren, damit sie von den Teammitgliedern einfach genutzt werden können. Es bietet LaTeX- und Markdown-Rendering, DeepSeek-Inferenzkettenanzeige, Bildverständnis, KI-Agenten und Cloud-Datenspeicher und unterstützt 10 große Modellanbieter. Das Projekt nutzt die Technologie-Stacks Next.js, Tailwindcss und PostgreSQL und kann lokal oder über Vercel und Docker bereitgestellt werden.

HiveChat:适合中小型团队快速部署的AI聊天机器人-1

 

HiveChat:适合中小型团队快速部署的AI聊天机器人-1

 

Funktionsliste

  • Unterstützte KI-Modelle: HiveChat unterstützt KI-Modelle wie Deepseek, OpenAI, Claude, Gemini, Moonshot, Volcano Engine Ark, Ali Bailian (Qianwen), Baidu Qianfan, Ollama, und SiliconFlow 10 große Modellanbieter, einschließlich nationaler und internationaler Mainstream-Optionen für globalisierte Teams.
  • Rendering und Anzeige: Unterstützt LaTeX- und Markdown-Rendering, was für Teams beim Umgang mit technischen Dokumenten praktisch ist; die DeepSeek-Funktion zur Anzeige der Inferenzkette hilft den Benutzern, den Inferenzprozess der KI zu verstehen.
  • Multimediale Unterstützung: Bildverarbeitungsfähigkeiten, geeignet für die Bewältigung von Aufgaben im Zusammenhang mit dem Sehen.
  • KI-Agent: Integrieren Sie KI-Agentenfunktionen für erweiterte Automatisierungsmöglichkeiten.
  • Datenmanagement: Bietet Cloud-Datenspeicherung, um sicherzustellen, dass die Daten des Teams sicher und beständig sind.

 

Hilfe verwenden

Technologie-Stacks und Bereitstellungsoptionen

HiveChat verwendet eine moderne Front-End- und Back-End-Technologie, die Folgendes umfasst:

Fähigkeiten Beschreibungen
Next.js verwendet, um das serverseitige Rendering der React Gerät
Tailwindcss Bietet ein schnelles CSS-Framework
Auth.js Handhabung der Benutzerauthentifizierung
PostgreSQL Relationale Datenbank mit Datenspeicherunterstützung
Drizzle ORM Datenbankoperationen ORM-Tools
Ant Design UI-Komponentenbibliotheken zur Verbesserung der Benutzerfreundlichkeit

Zu den Bereitstellungsoptionen gehören die lokale Bereitstellung, die Docker-Bereitstellung und die Vercel-Bereitstellung:

  • lokaler EinsatzBenutzer müssen das Repository klonen und Folgendes ausführen npm install die Installation von Abhängigkeiten.npm run initdb die Datenbank initialisieren.npm run dev Starten Sie die Entwicklungsumgebung.npm run build 和 npm run start Für den Einsatz in Produktionsumgebungen.
  • Docker-Bereitstellung: Klonen Sie das Repository, führen Sie docker compose build 和 docker compose up -d Der containerisierte Dienst kann gestartet werden.
  • Einsatz in Vercel: durch Vercel Einsatz Links Für die Bereitstellung mit einem Mausklick müssen Sie Umgebungsvariablen wie DATABASE_URL, AUTH_SECRET und ADMIN_CODE konfigurieren.

Sobald die Bereitstellung abgeschlossen ist, muss der Administrator http://localhost:3000/setup (oder die tatsächliche Domäne/den tatsächlichen Anschluss) besuchen, um ein Administratorkonto einzurichten.

Ausführliche Hilfe

Um den Benutzern einen schnellen Einstieg in HiveChat zu ermöglichen, finden Sie hier eine ausführliche Anleitung zur Installation und Nutzung:

Einbauverfahren

  1. Klon-Lager
    • Öffnen Sie ein Terminal und führen Sie den folgenden Befehl aus, um Ihr GitHub-Repository zu klonen:
      git clone https://github.com/HiveNexus/HiveChat.git
      cd HiveChat
      
  2. Bereitstellungsmethode auswählen
    • lokaler Einsatz
      • Stellen Sie sicher, dass Node.js und PostgreSQL installiert sind.
      • in Bewegung sein npm install Installieren Sie die Abhängigkeit.
      • konfigurieren. .env setzen Sie die folgenden Umgebungsvariablen:
        • DATABASE_URL=postgres://postgres:password@localhost/hivechat(muss durch eine tatsächliche Datenbankverbindung ersetzt werden, z. B. lokale PostgreSQL).
        • AUTH_SECRET: Verwendung openssl rand -base64 32 Erzeugt eine 32-Bit-Zufallszeichenfolge.
        • ADMIN_CODE: Legen Sie den Autorisierungscode des Administrators fest, ein Beispiel ist 22113344ist es empfehlenswert, ihn durch einen benutzerdefinierten Wert zu ersetzen.
        • NEXTAUTH_URL=http://127.0.0.1:3000(Testumgebungen können als Standard belassen werden, Produktionsumgebungen müssen auf den offiziellen Domänennamen geändert werden).
      • in Bewegung sein npm run initdb Initialisieren Sie die Datenbank.
      • Entwicklungsumgebung läuft npm run devBetrieb der Produktionsumgebung npm run build 后 npm run start
    • Docker-Bereitstellung
      • Stellen Sie sicher, dass Docker und Docker Compose installiert sind.
      • in Bewegung sein docker compose build Bauen Sie das Spiegelbild.
      • in Bewegung sein docker compose up -d Starten Sie den Container.
      • Das Konfigurieren von Umgebungsvariablen ist dasselbe wie die lokale Bereitstellung und muss in der docker-compose.yml Angegeben in.
    • Einsatz in Vercel
      • Interviews Vercel Einsatz Links
      • Folgen Sie den Aufforderungen zur Konfiguration von DATABASE_URL, AUTH_SECRET und ADMIN_CODE.
      • Klicken Sie auf Bereitstellen und warten Sie, bis Vercel die Erstellung abgeschlossen hat.
  3. Administrator-Initialisierung
    • Sobald die Bereitstellung abgeschlossen ist, gehen Sie auf http://localhost:3000/setup (lokale Bereitstellung) oder den tatsächlichen Domänennamen und geben Sie ADMIN_CODE ein, um das Administratorkonto einzurichten.

Verwendung

  • Bedienung durch den Administrator
    • Melden Sie sich an und gehen Sie zum Administrator-Dashboard, wo Sie den KI-Modellanbieter konfigurieren können (z. B. OpenAI API Key usw.).
    • Verwalten Sie alle Benutzerkonten, indem Sie manuell Benutzer hinzufügen oder die Registrierung aktivieren.
    • Zeigen Sie Statistiken zur Teamnutzung an und passen Sie die Modellkonfigurationen an, um die Leistung zu optimieren.
  • Allgemeiner Benutzerbetrieb
    • Melden Sie sich an, um auf die Chat-Schnittstelle zuzugreifen, die Texteingaben und Multimedia-Uploads (z. B. Bilder) unterstützt.
    • Formatieren Sie den Chat mit LaTeX und Markdown für technische Diskussionen.
    • Wählen Sie verschiedene AI-Modelle (z. B. Deepseek oder Claude), um einen Dialog zu führen und die DeepSeek-Schlussfolgerungskette einzusehen, um den Entscheidungsprozess der KI zu verstehen.
    • Die Daten werden automatisch in der Cloud gespeichert, so dass der Sitzungsverlauf jederzeit eingesehen werden kann.
  • Featured Function Bedienung
    • grafisches VerständnisLaden Sie Bilder hoch, und die KI kann den Inhalt analysieren und Beschreibungen erstellen, die für Produktdesign- oder Datenanalyseteams geeignet sind.
    • AI-AgentDurch Konfiguration kann die KI bestimmte Aufgaben automatisieren, z. B. die Erstellung von Berichten oder die Beantwortung häufig gestellter Fragen.
    • Cloud-DatenspeicherungAlle Chats und Konfigurationen werden in der Cloud gespeichert und können von Teammitgliedern geräteübergreifend genutzt werden.
0Lesezeichen
0Gelobt

Empfohlen

Sie können keine AI-Tools finden? Versuchen Sie es hier!

Geben Sie einfach das Schlüsselwort Barrierefreiheit Bing-SucheDer Bereich KI-Tools auf dieser Website bietet eine schnelle und einfache Möglichkeit, alle KI-Tools auf dieser Website zu finden.

Neue Veröffentlichungen

zurück zum Anfang