Mecanismos heterogêneos de adaptação do conhecimento
A inovadora tecnologia H-LoRA (Hierarchical Low-Rank Adaptation) da HealthGPT aborda o principal desafio do aprendizado multimodal na área da saúde. A tecnologia contém 4 conjuntos de adaptadores de baixa classificação conectáveis que correspondem a diferentes níveis de processamento de recursos visuais, suportando configurações de dimensão de classificação ajustáveis de r=64-256. Ao congelar os parâmetros do modelo básico e treinar apenas os pesos do adaptador, ela consegue uma injeção eficiente de conhecimento médico especializado e, ao mesmo tempo, garante a capacidade generalizada do modelo.
Na implementação específica, a tarefa de compreensão usa com_hlora_weights (r=64) e a tarefa de geração usa gen_hlora_weights (r=256). Esse design permite que o modelo mantenha um excelente desempenho com dados médicos limitados, com um único adaptador de tarefa que requer apenas cerca de 500 MB de parâmetros adicionais e uma melhoria de mais de 8 vezes na eficiência do treinamento em relação ao ajuste fino completo dos parâmetros.
Essa resposta foi extraída do artigoHealthGPT: um grande modelo médico para apoiar a análise de imagens médicas e as perguntas e respostas de diagnósticoO