Acesso no exterior: www.kdjingpai.com
Ctrl + D Marcar este site como favorito

O GBC MedAI é um sistema de assistente médico inteligente de código aberto. Ele usa o FastAPI como estrutura de back-end e o Vue 3 como pilha de tecnologia de front-end. O principal recurso desse sistema está na capacidade de integrar vários modelos de big language de IA ao mesmo tempo, como o DeepSeek, implantado localmente Ollama e outros modelos compatíveis com a interface OpenAI. Ele também integra uma variedade de serviços de mecanismos de pesquisa para oferecer aos usuários funções inteligentes de diálogo e pesquisa que incorporam informações em tempo real. Com uma arquitetura modular e uma pilha de tecnologia avançada e completa, o projeto tem como objetivo fornecer uma solução de assistente de IA que possa ser implantada rapidamente e desenvolvida secundariamente para a área médica ou outros cenários profissionais.

 

Lista de funções

  • Recursos de IASuporte ao acesso ao DeepSeek, aos modelos locais do Ollama e a uma variedade de modelos de IA compatíveis com o OpenAI. O sistema tem a capacidade de lidar com tarefas complexas de raciocínio e compreensão visual, e pode analisar imagens carregadas.
  • Pesquisa inteligenteIntegração do Boca AI, Baidu AI Search e SerpAPI: a integração do Boca AI, Baidu AI Search e SerpAPI permite a seleção automática do mecanismo de pesquisa mais adequado com base na pergunta e o acesso às informações médicas mais recentes e ao progresso das pesquisas.
  • sistema de diálogoResposta de streaming suave e recursos de memória contextual. O sistema tem um mecanismo completo de autenticação de usuário integrado e de gerenciamento de várias sessões v para salvar o histórico.
  • Front-end modernoInterface do usuário: Criado com Vue 3 e TypeScript, ele oferece um layout responsivo e é compatível com dispositivos móveis e de desktop. A interface foi projetada em um belo estilo de anime secundário e inclui ricas animações interativas.
  • Back-end de alto desempenhoDesenvolvido com base na estrutura assíncrona FastAPI, ele garante recursos eficientes de processamento de solicitações.
  • Dados e cacheUso do Redis como cache semântico: o uso do Redis como cache semântico pode melhorar efetivamente o desempenho da resposta de consultas repetidas e reduzir o custo das chamadas de modelos de IA.
  • Estrutura avançada de IA:: Aplicado LangGraph e tecnologias como o GraphRag para criar processos de IA mais complexos e aplicativos de gráficos de conhecimento.

Usando a Ajuda

Esta seção detalha como instalar, configurar e executar com êxito o sistema GBC MedAI. Siga as etapas abaixo para concluir a implantação.

Requisitos ambientais

Antes de começar, verifique se o ambiente do sistema atende às seguintes condições:

  • Python3.8 ou superior
  • Node.js: 16 ou superior (necessário apenas se for necessário o desenvolvimento de front-end)
  • banco de dados abrangenteMySQL 8.0 ou superior, Redis 6.0 ou superior
  • Gráfico de conhecimento (opcional)Neo4j 4.0 ou superior

Download do Prefile

O projeto depende de alguns arquivos pré-construídos para ser executado. Faça o download deles no endereço a seguir e descompacte-os primeiro no diretório especificado:

  • Documentação de front-endLink do Baidu.com https://pan.baidu.com/s/1KTROmn78XhhcuYBOfk0iUQ?pwd=wi8k (Código de extração: wi8k) Faça o download do arquivo do pacote front-end e extraia-o para o diretório llm_backend/static/ Catálogo.
  • Arquivos GraphRagLink do Baidu.com https://pan.baidu.com/s/1dg6YxN_a4wZCXrmHBPGj_Q?pwd=hppu (Código de extração: hppu) Faça o download dos arquivos relacionados ao GraphRag e coloque-os no diretório raiz do projeto.

Etapas de instalação e configuração

1. clonagem de códigos de projeto
Primeiro, use o git para clonar o código do projeto do GitHub para seu computador local.

git clone https://github.com/zhanlangerba/gbc-madai.git
cd gbc-madai

2. configuração do serviço de back-end
Vá para o diretório de código do backend e use o comando pip Instale todas as dependências do Python.

cd llm_backend
pip install -r requirements.txt

3. configuração de variáveis de ambiente
O arquivo de configuração é fundamental para a operação do sistema. Você precisará copiar o arquivo de modelo e preencher suas informações pessoais de configuração.

# 复制环境变量模板文件
cp .env.example .env

# 使用文本编辑器(如 nano 或 vim)打开并编辑 .env 文件
nano .env

existir .env você precisará preencher as seguintes informações:

  • DEEPSEEK_API_KEY: Seu DeepSeek Chave de API.
  • BOCHA_AI_API_KEY / BAIDU_AI_SEARCH_API_KEY / SERPAPI_KEYPreencha a chave de API correspondente de acordo com o mecanismo de pesquisa que você escolheu.
  • DB_HOSTDB_USERDB_PASSWORDDB_NAMESuas informações de conexão com o banco de dados MySQL.
  • REDIS_HOSTREDIS_PORTSuas informações de conexão do serviço Redis.
  • NEO4J_URLNEO4J_USERNAMENEO4J_PASSWORDInformações de conexão do seu banco de dados Neo4j (se usado).

4. inicialização do banco de dados
Antes de iniciar o serviço, você precisa criar o banco de dados necessário para o projeto no MySQL.

# 使用您的 MySQL root 用户登录并执行以下命令
mysql -u root -p -e "CREATE DATABASE assist_gen CHARACTER SET utf8mb4 COLLATE utf8mb4_unicode_ci;"

5. iniciar os serviços do sistema
Após concluir todas as etapas acima, execute run.py para iniciar o sistema inteiro.

# 启动后端服务
python run.py

Depois que o serviço tiver sido iniciado com sucesso, você poderá acessar o seguinte endereço pelo navegador:

  • endereço de acesso front-endhttp://localhost:8000/
  • Documentação da API (Swagger UI)http://localhost:8000/docs

Método de implantação

Além de executar o código-fonte diretamente, o projeto oferece suporte ao método de implantação do Docker, mais estável e conveniente.

Implementação com o Docker (recomendado)
Certifique-se de que você instalou o Docker. Execute o seguinte comando no diretório raiz do projeto:

# 1. 构建 Docker 镜像,将其命名为 gbc-madai
docker build -t gbc-madai .

# 2. 以后台模式运行容器,并将本地的 .env 文件作为环境变量传入
docker run -d -p 8000:8000 --env-file .env gbc-madai

Desenvolvimento independente de front-end
Se precisar modificar e desenvolver a interface de front-end, você pode ir para a seção gbc_madai_web para executar o serviço de desenvolvimento de front-end de forma independente. "`shell

Vá para o diretório de código do front-end

cd . /gbc_madai_web

Instalação de dependências de front-end

npm install

Inicie o servidor de desenvolvimento front-end

npm run dev

Os serviços de desenvolvimento front-end estarão disponíveis em http://localhost:3000 é iniciado e fará o proxy automático das solicitações de API para o http://localhost:8000.

cenário do aplicativo

  1. Consultoria em saúde inteligente
    Como um assistente médico virtual, ele pode ser usado on-line 24 horas por dia, 7 dias por semana, para responder às perguntas dos pacientes sobre doenças comuns, conselhos sobre medicamentos e vida saudável, além de fornecer orientação médica inicial.
  2. Suporte a decisões clínicas
    Ajudar os médicos a recuperar e analisar rapidamente a literatura médica mais recente, relatórios de estudos clínicos e diretrizes de tratamento, fornecendo suporte de informações para o desenvolvimento de diagnósticos e planos de tratamento mais precisos.
  3. Plataforma de recuperação de informações médicas
    Ele pode ser usado como uma base de conhecimento inteligente em um hospital ou organização de pesquisa, ajudando a equipe a encontrar rapidamente regulamentos internos, procedimentos operacionais, arquivos de casos e materiais de pesquisa.
  4. Outras áreas especializadas de aplicação
    O design modular do sistema permite que ele seja facilmente estendido a outros campos profissionais, como comércio eletrônico, finanças, direito etc., para ser usado como atendimento inteligente ao cliente ou assistente especializado.

QA

  1. Esse projeto é gratuito e de código aberto?
    Sim, o projeto é totalmente de código aberto com base na licença MIT e você pode usá-lo, modificá-lo e distribuí-lo em seus projetos pessoais ou comerciais.
  2. Qual é a formação técnica necessária para implementar esse sistema?
    Você precisará de um conhecimento básico da linguagem Python e da estrutura FastAPI, além de conhecimentos sobre a instalação e as operações básicas dos bancos de dados MySQL e Redis. Se optar pela implantação com o Docker, você também precisará estar familiarizado com os comandos comuns do Docker.
  3. Posso acessar meus próprios modelos de IA?
    Pode. A arquitetura do sistema suporta o acesso a qualquer modelo compatível com o padrão da API OpenAI. Tudo o que você precisa fazer é adicionar o .env Modifique o endereço de API do modelo no arquivo de configuração (OLLAMA_BASE_URL (ou variáveis semelhantes) e uma chave é suficiente. O próprio sistema tem suporte nativo para DeepSeek e Ollama.
  4. A interface de front-end pode ser substituída?
    O backend do sistema fornece um conjunto completo de APIs REST. O backend do sistema fornece um conjunto completo de APIs REST. Você pode ignorar completamente o frontend do projeto e seguir a documentação da API (http://localhost:8000/docs) Desenvolva seus próprios aplicativos clientes, como aplicativos de desktop, aplicativos móveis ou miniaplicativos.
0Marcado
0Recomendado

Recomendado

Não consegue encontrar ferramentas de IA? Tente aqui!

Basta digitar a palavra-chave Acessibilidade Bing SearchA seção Ferramentas de IA deste site é uma maneira rápida e fácil de encontrar todas as ferramentas de IA deste site.

voltar ao topo

pt_BRPortuguês do Brasil