Programa de controle de limite de token
As estratégias de enfrentamento a seguir são recomendadas para diferentes modelos com restrições de token:
1. mecanismo de pré-triagem
- estar em movimento
code2prompt /path --tokens -c cl100kObtendo contagens precisas - Comparação de limites entre modelos: GPT-4 (32k), Claude (100k), etc.
- Atenção especial ao consumo cumulativo de cenários de diálogo em várias rodadas
2. programa Smart Split
- Dividido por catálogo:
--include "src/utils/*" - Por tipo de documento:
--include "*.py" --exclude "tests/*" - Por escopo de mudança: combinado
--git-diff-branchEnvio apenas de discrepâncias
3. técnicas de otimização de compressão
- Excluir a nota:
--filter-comments(São necessários modelos personalizados) - Simplificar as margens: adicionar
sed 's/s+/ /g'manuseio de tubos - Use a abreviação: no modelo com
{{truncate content length=100}}Truncamento de arquivos longos
gerenciamento de emergências
Quando for encontrado um overrun: interrompa imediatamente e salve o progresso -o partial.mdusando uma estratégia de Q&A dividida.
Essa resposta foi extraída do artigocode2prompt: conversão de bibliotecas de código em arquivos de prompt compreensíveis de modelo grandeO





























