Zugang aus Übersee: www.kdjingpai.com
Ctrl + D Lesezeichen für diese Seite

GBC MedAI ist ein quelloffenes intelligentes medizinisches Assistenzsystem. Es verwendet FastAPI als Back-End-Framework und Vue 3 als Front-End-Technologie-Stack. Die Kernfähigkeit dieses Systems liegt in der Fähigkeit, mehrere große KI-Sprachmodelle gleichzeitig zu integrieren, wie z. B. DeepSeek, lokal eingesetztes Ollama und andere Modelle, die mit der OpenAI-Schnittstelle kompatibel sind. Es integriert auch eine Vielzahl von Suchmaschinendiensten, um den Nutzern intelligente Dialog- und Suchfunktionen zu bieten, die Echtzeitinformationen einbeziehen. Mit einer modularen Architektur und einem fortschrittlichen und vollständigen Technologiepaket zielt das Projekt darauf ab, eine KI-Assistentenlösung bereitzustellen, die schnell eingesetzt und in zweiter Linie für den medizinischen Bereich oder andere professionelle Szenarien entwickelt werden kann.

 

Funktionsliste

  • KI-FähigkeitenUnterstützung des Zugangs zu DeepSeek, lokalen Modellen von Ollama und einer Vielzahl von KI-Modellen, die mit OpenAI kompatibel sind. Das System ist in der Lage, komplexe logische Aufgaben und visuelles Verständnis zu bewältigen und kann hochgeladene Bilder analysieren.
  • Intelligente SucheIntegration von Boca AI, Baidu AI Search und SerpAPI ermöglicht die automatische Auswahl der am besten geeigneten Suchmaschine auf der Grundlage der Fragestellung und den Zugang zu den neuesten medizinischen Informationen und Forschungsergebnissen.
  • Dialogsystem:: Bietet reibungslose Streaming-Antworten und kontextbezogene Speicherfunktionen. Das System verfügt über eine vollständige integrierte Benutzerauthentifizierung und einen Multi-Session-V-Session-Management-Mechanismus zum Speichern der Historie.
  • Modernes FrontendDie mit Vue 3 und TypeScript erstellte Website bietet ein responsives Layout und unterstützt sowohl Desktop- als auch Mobilgeräte. Die Schnittstelle ist in einem schönen sekundären Anime-Stil gestaltet und enthält reiche interaktive Animationen.
  • Leistungsstarkes Back-EndEntwickelt auf der Grundlage des asynchronen FastAPI-Frameworks, gewährleistet es eine effiziente Verarbeitung von Anfragen.
  • Daten und CacheDie Verwendung von Redis als semantischer Cache kann die Antwortleistung bei wiederholten Abfragen effektiv verbessern und die Kosten für KI-Modellaufrufe reduzieren.
  • Fortgeschrittenes AI-Framework:: Angewandt LangGraph und Technologien wie GraphRag für den Aufbau komplexerer KI-Prozesse und Wissensgraphenanwendungen.

Hilfe verwenden

In diesem Abschnitt erfahren Sie, wie Sie das GBC MedAI-System installieren, konfigurieren und erfolgreich betreiben. Bitte folgen Sie den nachstehenden Schritten, um Ihre Einrichtung abzuschließen.

Anforderungen an die Umwelt

Bevor Sie beginnen, stellen Sie sicher, dass Ihre Systemumgebung die folgenden Bedingungen erfüllt:

  • Python: 3,8 oder höher
  • Node.js: 16 oder höher (nur erforderlich, wenn Front-End-Entwicklung erforderlich ist)
  • umfassende DatenbankMySQL 8.0 oder höher, Redis 6.0 oder höher
  • Knowledge Graph (optional)Neo4j 4.0 oder höher

Prefile Download

Das Projekt benötigt einige vorkonfigurierte Dateien. Bitte laden Sie diese von der folgenden Adresse herunter und entpacken Sie sie zuerst in das angegebene Verzeichnis:

  • Front-End-Dokumentation: Link von Baidu.com https://pan.baidu.com/s/1KTROmn78XhhcuYBOfk0iUQ?pwd=wi8k (Extract code: wi8k) Laden Sie die Front-End-Paketdatei herunter und entpacken Sie sie in das Verzeichnis llm_backend/static/ Katalog.
  • GraphRag-Dateien: Link von Baidu.com https://pan.baidu.com/s/1dg6YxN_a4wZCXrmHBPGj_Q?pwd=hppu (Code extrahieren: hppu) Laden Sie die GraphRag-bezogenen Dateien herunter und legen Sie sie in das Hauptverzeichnis des Projekts.

Installations- und Konfigurationsschritte

1. das Klonen von Projektcodes
Verwenden Sie zunächst die git Befehl, um den Projektcode von GitHub auf Ihren lokalen Computer zu klonen.

git clone https://github.com/zhanlangerba/gbc-madai.git
cd gbc-madai

2. die Einrichtung des Backend-Dienstes
Wechseln Sie in das Backend-Codeverzeichnis und verwenden Sie die pip Installieren Sie alle Python-Abhängigkeiten.

cd llm_backend
pip install -r requirements.txt

3. die Umgebungsvariablen konfigurieren
Die Konfigurationsdatei ist der Schlüssel für den Betrieb des Systems. Sie müssen die Vorlagedatei kopieren und Ihre persönlichen Konfigurationsdaten eingeben.

# 复制环境变量模板文件
cp .env.example .env

# 使用文本编辑器(如 nano 或 vim)打开并编辑 .env 文件
nano .env

existieren .env müssen Sie die folgenden Informationen ausfüllen:

  • DEEPSEEK_API_KEY: Ihr DeepSeek API-Schlüssel.
  • BOCHA_AI_API_KEY / BAIDU_AI_SEARCH_API_KEY / SERPAPI_KEY: Geben Sie den entsprechenden API-Schlüssel für die von Ihnen gewählte Suchmaschine ein.
  • DB_HOSTDB_USERDB_PASSWORDDB_NAMEIhre MySQL-Datenbankverbindungsinformationen.
  • REDIS_HOSTREDIS_PORTIhre Redis-Dienst-Verbindungsinformationen.
  • NEO4J_URLNEO4J_USERNAMENEO4J_PASSWORDIhre Neo4j-Datenbankverbindungsinformationen (falls verwendet).

4. die Initialisierung der Datenbank
Bevor Sie den Dienst starten, müssen Sie die für das Projekt erforderliche Datenbank in MySQL erstellen.

# 使用您的 MySQL root 用户登录并执行以下命令
mysql -u root -p -e "CREATE DATABASE assist_gen CHARACTER SET utf8mb4 COLLATE utf8mb4_unicode_ci;"

5. die Systemdienste starten
Nachdem Sie alle oben genannten Schritte durchgeführt haben, führen Sie run.py Skript, um das gesamte System zu starten.

# 启动后端服务
python run.py

Nachdem der Dienst erfolgreich gestartet wurde, können Sie die folgende Adresse über Ihren Browser aufrufen:

  • Front-End-Zugangsadressehttp://localhost:8000/
  • API-Dokumentation (Swagger UI)http://localhost:8000/docs

Methode des Einsatzes

Neben der direkten Ausführung des Quellcodes unterstützt das Projekt auch die stabilere und bequemere Docker-Bereitstellungsmethode.

Bereitstellen mit Docker (empfohlen)
Stellen Sie sicher, dass Sie Docker installiert haben. Führen Sie den folgenden Befehl im Stammverzeichnis des Projekts aus:

# 1. 构建 Docker 镜像,将其命名为 gbc-madai
docker build -t gbc-madai .

# 2. 以后台模式运行容器,并将本地的 .env 文件作为环境变量传入
docker run -d -p 8000:8000 --env-file .env gbc-madai

Unabhängige Front-End-Entwicklung
Wenn Sie die Front-End-Oberfläche ändern und entwickeln müssen, können Sie auf der Seite gbc_madai_web Verzeichnis, um den Front-End-Entwicklungsdienst unabhängig auszuführen. "`shell

Wechseln Sie in das Front-End-Code-Verzeichnis

cd . /gbc_madai_web

Installation von Front-End-Abhängigkeiten

npm-Installation

Starten Sie den Front-End-Entwicklungsserver

npm run dev

Front-End-Entwicklungsdienste werden verfügbar sein in http://localhost:3000 startet und automatisch API-Anfragen an die http://localhost:8000.

Anwendungsszenario

  1. Intelligente Beratung im Gesundheitswesen
    Als virtuelle Arzthelferin kann sie rund um die Uhr online genutzt werden, um Fragen von Patienten zu häufigen Krankheiten, Medikamentenempfehlungen und gesunder Lebensweise zu beantworten und eine erste medizinische Beratung anzubieten.
  2. Unterstützung klinischer Entscheidungen
    Unterstützung von Ärzten beim schnellen Auffinden und Analysieren der neuesten medizinischen Literatur, klinischer Studienberichte und Behandlungsrichtlinien, um die Entwicklung genauerer Diagnose- und Behandlungspläne zu unterstützen.
  3. Plattform für die Suche nach medizinischen Informationen
    Sie kann als intelligente Wissensdatenbank innerhalb eines Krankenhauses oder einer Forschungseinrichtung genutzt werden, die den Mitarbeitern hilft, interne Vorschriften, Betriebsabläufe, Fallakten und Forschungsmaterialien schnell zu finden.
  4. Andere spezialisierte Anwendungsbereiche
    Der modulare Aufbau des Systems ermöglicht eine einfache Erweiterung auf andere Berufsfelder wie E-Commerce, Finanzen, Recht usw., um als intelligenter Kundenservice oder Expertenassistent eingesetzt zu werden.

QA

  1. Ist dieses Projekt kostenlos und quelloffen?
    Ja, das Projekt ist vollständig quelloffen und basiert auf der MIT-Lizenz. Es steht Ihnen frei, es in Ihren persönlichen oder kommerziellen Projekten zu verwenden, zu verändern und weiterzugeben.
  2. Welcher technische Hintergrund ist für den Einsatz dieses Systems erforderlich?
    Sie benötigen ein grundlegendes Verständnis der Sprache Python und des FastAPI-Frameworks sowie Kenntnisse über die Installation von MySQL- und Redis-Datenbanken und grundlegende Operationen. Wenn Sie sich für die Bereitstellung mit Docker entscheiden, müssen Sie auch mit den gängigen Docker-Befehlen vertraut sein.
  3. Kann ich auf meine eigenen KI-Modelle zugreifen?
    Kann. Die Systemarchitektur unterstützt den Zugriff auf jedes Modell, das mit dem OpenAI-API-Standard kompatibel ist. Alles, was Sie tun müssen, ist das Hinzufügen der .env Ändern Sie die API-Adresse des Modells in der Konfigurationsdatei (OLLAMA_BASE_URL (oder ähnliche Variablen) und ein Schlüssel sind ausreichend. Das System selbst bietet native Unterstützung für DeepSeek und Ollama.
  4. Kann die Front-End-Schnittstelle ersetzt werden?
    Das System-Backend bietet einen vollständigen Satz von REST-APIs. Das System-Backend bietet einen vollständigen Satz von REST-APIs. Sie können das Frontend, das mit Ihrem Projekt geliefert wird, ganz weglassen und der API-Dokumentation folgen (http://localhost:8000/docs) Entwickeln Sie Ihre eigenen Client-Anwendungen, z. B. Desktop-Anwendungen, mobile Anwendungen oder Applets.
0Lesezeichen
0Gelobt

Empfohlen

Sie können keine AI-Tools finden? Versuchen Sie es hier!

Geben Sie einfach das Schlüsselwort Barrierefreiheit Bing-SucheDer Bereich KI-Tools auf dieser Website bietet eine schnelle und einfache Möglichkeit, alle KI-Tools auf dieser Website zu finden.

zurück zum Anfang

de_DEDeutsch