Acesso no exterior: www.kdjingpai.com
Ctrl + D Marcar este site como favorito

Trae O Agent é uma ferramenta de automação de tarefas de engenharia de software baseada no modelo de linguagem grande (LLM) de código aberto da ByteDance. Ele recebe instruções de linguagem natural por meio de uma interface de linha de comando (CLI) para automatizar tarefas de programação complexas, como escrever código, corrigir bugs ou otimizar programas. O projeto está atualmente no estágio alfa, ainda em desenvolvimento ativo, e as contribuições da comunidade são bem-vindas. O Trae Agent é compatível com vários modelos de linguagem grandes, como o OpenAI e o Anthropic, e oferece um rico ecossistema de ferramentas, incluindo edição de arquivos, execução de scripts e outros recursos. Seu design modular é fácil de ser personalizado pelos desenvolvedores e é adequado para pesquisa e desenvolvimento de novos tipos de inteligências. Os usuários podem começar rapidamente com um processo de instalação simples e desfrutar de uma experiência de desenvolvimento transparente.

 

Lista de funções

  • Suporte a comandos de linguagem natural, como "Criar um script Python" para gerar código automaticamente.
  • Oferece suporte a vários provedores de LLM, incluindo OpenAI, Anthropic, Doubao, etc., para troca flexível de modelos.
  • Oferece edição de arquivos, execução de scripts bash, raciocínio sequencial e outras ferramentas para atender às diversas necessidades de programação.
  • O modelo de interação suporta várias rodadas de diálogo e é adequado para o desenvolvimento iterativo.
  • Registre logs de operação detalhados e salve-os como arquivos JSON para facilitar a depuração e a análise.
  • A configuração flexível é suportada por meio de perfis JSON e variáveis de ambiente.
  • Oferece um processo de instalação fácil para implantação rápida usando ferramentas pip ou UV.

 

Usando a Ajuda

Processo de instalação

O Trae Agent é fácil de instalar, e recomenda-se um ambiente Python 3.12. Veja a seguir as etapas detalhadas:

  1. Preparação do ambiente
    Certifique-se de que o Python 3.12 e o pip estejam instalados. é recomendável usar a ferramenta UV para gerenciar o ambiente virtual. instale o UV:

    pip install uv
    

Criar e ativar um ambiente virtual:

uv venv
source .venv/bin/activate  # Linux/Mac
.venv\Scripts\activate      # Windows
  1. projeto de clonagem
    Clone o repositório do Trae Agent do GitHub:

    git clone https://github.com/bytedance/trae-agent
    cd trae-agent
    
  2. Instalação de dependências
    Instale as dependências usando UV ou pip:

    uv pip install -r requirements.txt
    

    Ou:

    pip install -r requirements.txt
    
  3. Configuração de chaves de API
    O Trae Agent oferece suporte a vários provedores de LLM, e você precisa configurar as chaves de API correspondentes. Por exemplo, para OpenAI e Antrópica Configure a chave:

    export OPENAI_API_KEY='your_openai_api_key'
    export ANTHROPIC_API_KEY='your_anthropic_api_key'
    

    Verifique se a chave foi definida com êxito:

    echo $OPENAI_API_KEY
    echo $ANTHROPIC_API_KEY
    
  4. arquivo de configuração
    O Trae Agent usa um arquivo de configuração JSON para gerenciar as configurações, localizado no diretório raiz do projeto sob o nome config.json. Exemplo de configuração:

    {
    "default_provider": "anthropic",
    "max_steps": 20,
    "model_providers": {
    "openai": {
    "api_key": "your_openai_api_key",
    "model": "gpt-4o",
    "max_tokens": 128000,
    "temperature": 0.5
    },
    "anthropic": {
    "api_key": "your_anthropic_api_key",
    "model": "claude-sonnet-4-20250514",
    "max_tokens": 4096,
    "temperature": 0.5
    }
    }
    }
    

    Depois de salvar, execute o seguinte comando para verificar a configuração:

    trae show-config
    

Função Fluxo de operação

A funcionalidade principal do Trae Agent é fornecida por meio de trae a seguir, veja como usar as principais funções:

  1. Implementação de uma única tarefa
    fazer uso de trae-cli run você pode inserir instruções em linguagem natural para acionar uma tarefa. Por exemplo, crie um script de matriz Fibonacci:

    trae-cli run "Create a Python script that calculates fibonacci numbers"
    

    Especifique o modelo e o provedor:

    trae-cli run "Fix the bug in main.py" --provider anthropic --model claude-sonnet-4-20250514
    
  2. modo interativo
    Entre no modo de interação, adequado para várias rodadas de diálogo e desenvolvimento iterativo:

    trae-cli interactive
    

    O modelo e o número máximo de etapas podem ser especificados:

    trae-cli interactive --provider openai --model gpt-4o --max-steps 30
    

    No modo interativo, o usuário pode inserir comandos continuamente e o Trae Agent concluirá a tarefa passo a passo de acordo com o contexto.

  3. Salvar o registro de operações
    Um registro de operação pode ser gerado para cada execução de tarefa para fins de depuração. Por padrão, o registro é salvo como trajectory_YYYYMMDD_HHMMSS.jsonou especificar um arquivo:

    trae-cli run "Optimize the database queries" --trajectory-file optimization_debug.json
    
  4. Patch gerado por força
    Para tarefas que exigem modificações de arquivos, os patches podem ser forçados a serem gerados:

    trae-cli run "Update the API endpoints" --must-patch
    
  5. Personalização do diretório de trabalho
    Especifique o diretório do projeto para executar a tarefa:

    trae-cli run "Add unit tests for the utils module" --working-dir /path/to/project
    

Operação da função em destaque

  • Resumo de Lakeview
    O recurso Lakeview do Trae Agent fornece um resumo conciso das etapas da tarefa. Depois de executar a tarefa, visualize o arquivo de registro (por exemplo trajectory_20250612_220546.json)中的 Lakeview 字段,快速了解执行步骤。
  • Suporte multi-LLM
    Os usuários podem acessar o --provider responder cantando --model para alternar entre os modelos. Por exemplo, usando o parâmetro OpenRouter de GPT-4o:

    trae-cli run "Optimize this code" --provider openrouter --model "openai/gpt-4o"
    
  • ecologia de ferramentas
    O Trae Agent tem ferramentas internas para edição de arquivos, execução do bash e muito mais. Por exemplo, edição automática de arquivos:

    trae-cli run "Add documentation to main.py"
    

    A ferramenta gera o documento e o salva no arquivo especificado.

advertência

  • Certifique-se de que a chave da API seja válida, caso contrário, a tarefa não poderá ser executada.
  • O projeto está em fase alfa e pode ser instável, portanto, recomendamos que você fique de olho no repositório do GitHub para obter atualizações.
  • O arquivo de log registra operações detalhadas e recomenda-se que seja limpo regularmente para economizar espaço.

 

cenário do aplicativo

  1. Geração automatizada de código
    Os desenvolvedores simplesmente digitam "Create a REST API framework" (Criar uma estrutura de API REST) e o Trae Agent gera a estrutura de código em Python ou em outras linguagens, economizando tempo de escrita manual.
  2. Depuração e correção de código
    Digite "fix errors in main.py" e o Trae Agent analisará o código, localizará o problema e gerará um patch, que é adequado para corrigir bugs rapidamente.
  3. Pesquisa e desenvolvimento de corpos inteligentes
    Devido ao design modular, os pesquisadores podem modificar a arquitetura do Trae Agent para testar novas ferramentas ou fluxos de trabalho, adequados para pesquisas acadêmicas.
  4. Processamento de tarefas em lote
    Chame o Trae Agent por meio de scripts para executar tarefas em lotes, como adicionar testes de unidade para vários módulos, para aumentar a eficiência.

 

QA

  1. Quais idiomas são suportados pelo Trae Agent?
    O Python 3.12 é suportado principalmente, mas a geração e a edição de código para outras linguagens podem ser suportadas por meio da ecologia de ferramentas.
  2. Como faço para alternar entre diferentes modelos de LLM?
    fazer uso de --provider responder cantando --model parâmetros, como trae-cli run "任务" --provider openai --model gpt-4o.
  3. Como os arquivos de registro são usados?
    Os arquivos de log registram cada etapa de uma tarefa, e a visualização de arquivos JSON permite analisar o processo de execução, tornando-o adequado para depuração ou otimização.
  4. O projeto é adequado para um ambiente de produção?
    Atualmente em fase alfa, ele é recomendado para desenvolvimento e pesquisa e deve ser testado com cautela em ambientes de produção.
0Marcado
0Recomendado

Recomendado

Não consegue encontrar ferramentas de IA? Tente aqui!

Basta digitar a palavra-chave Acessibilidade Bing SearchA seção Ferramentas de IA deste site é uma maneira rápida e fácil de encontrar todas as ferramentas de IA deste site.

caixa de entrada

Entre em contato conosco

voltar ao topo

pt_BRPortuguês do Brasil