O Tifa-Deepsex-14b-CoT é um modelo de linguagem grande dedicado e profundamente otimizado com base na arquitetura Deepseek-R1-14B, que alcança dois avanços fundamentais por meio de treinamento em vários estágios e tecnologia de suporte a contexto ultralongo de 128k:
- Aprimoramento de interpretação de papéisO modelo adota o algoritmo de recompensa RL de parâmetro 671B, que resolve o problema de o personagem do diálogo do modelo original não se encaixar. Com a fusão de 10 mil anotações manuais e 100 mil dados SFT generativos, ele pode gerar com precisão várias rodadas de diálogo que correspondem às configurações do personagem
- Otimização de geração de formato longoO pré-treinamento incremental de um novo corpus de 0,4T e a introdução do mecanismo de DPO antiduplicação resultaram em uma melhoria de coerência de 52% para textos de 200.000 palavras ou mais e uma taxa de precisão de 98% na correção de confusões entre chinês e inglês.
O modelo está disponível em três versões quantificadas, F16/Q8/Q4, e atinge uma velocidade de inferência de 18 tokens por segundo em uma placa de vídeo RTX4090, o que o torna um dos poucos modelos de criação de textos longos que podem ser aplicados em nível comercial.
Essa resposta foi extraída do artigoTifa-Deepsex-14b-CoT: um modelo grande especializado em interpretação de papéis e geração de ficção ultralongaO































