トレー Agentは、ByteDance社がオープンソース化したLarge Language Model(LLM)をベースとしたソフトウェアエンジニアリングのタスク自動化ツールです。コマンドラインインタフェース(CLI)を通じて自然言語による指示を受け取り、コードの記述、バグの修正、プログラムの最適化といった複雑なプログラミング作業を自動化します。Trae Agentは、OpenAIやAnthropicなどの複数の大規模言語モデルをサポートし、ファイル編集、スクリプト実行、その他の機能を含むツールの豊富なエコシステムを提供します。そのモジュラーデザインは開発者にとってカスタマイズしやすく、新しいタイプの知能の研究開発に適しています。ユーザーは簡単なインストールプロセスですぐに始めることができ、透明性の高い開発体験を楽しむことができます。
機能一覧
- コードを自動生成するための「Pythonスクリプトを作成する」などの自然言語コマンドをサポート。
- OpenAI、Anthropic、Doubaoなど複数のLLMプロバイダーをサポートし、柔軟なモデル切り替えが可能。
- ファイル編集、bashスクリプト実行、逐次推論など、多様なプログラミングニーズに対応するツールを提供。
- この相互作用モデルは、複数回の対話をサポートし、反復的な開発に適している。
- 詳細な操作ログを記録し、JSONファイルとして保存することで、デバッグや分析が容易になります。
- 柔軟な設定は、JSONプロファイルと環境変数によってサポートされている。
- pipやUVツールを使って素早く導入できるよう、簡単なインストールプロセスを提供します。
ヘルプの使用
設置プロセス
Trae Agentのインストールは簡単で、Python 3.12の環境を推奨します。以下に詳細な手順を示します:
- 環境を整える
Python3.12とpipがインストールされていることを確認してください。仮想環境を管理するためにUVツールを使用することをお勧めします:pip install uv
仮想環境を作成し、起動する:
uv venv
source .venv/bin/activate # Linux/Mac
.venv\Scripts\activate # Windows
- クローンプロジェクト
GitHubからTrae Agentリポジトリをクローンする:git clone https://github.com/bytedance/trae-agent cd trae-agent
- 依存関係のインストール
UVまたはpipを使って依存関係をインストールする:uv pip install -r requirements.txt
あるいは
pip install -r requirements.txt
- APIキーの設定
Trae Agentは様々なLLMプロバイダをサポートしており、対応するAPIキーを設定する必要があります。例えば、OpenAI と アンソロピック キーを設定する:export OPENAI_API_KEY='your_openai_api_key' export ANTHROPIC_API_KEY='your_anthropic_api_key'
キーが正常に設定されたことを確認する:
echo $OPENAI_API_KEY echo $ANTHROPIC_API_KEY
- 設定ファイル
Trae Agent は、JSON 設定ファイルを使用して設定を管理します。config.json
.設定例:{ "default_provider": "anthropic", "max_steps": 20, "model_providers": { "openai": { "api_key": "your_openai_api_key", "model": "gpt-4o", "max_tokens": 128000, "temperature": 0.5 }, "anthropic": { "api_key": "your_anthropic_api_key", "model": "claude-sonnet-4-20250514", "max_tokens": 4096, "temperature": 0.5 } } }
保存後、以下のコマンドを実行して設定を確認する:
trae show-config
機能 操作の流れ
Trae エージェントのコア機能は trae
コマンドコールの主な機能の使い方は以下の通り:
- シングルタスクの実装
利用するtrae-cli run
コマンドを使用すると、タスクをトリガーするための自然言語の指示を入力できます。例えば、フィボナッチ配列スクリプトを作成します:trae-cli run "Create a Python script that calculates fibonacci numbers"
モデルとプロバイダーを指定する:
trae-cli run "Fix the bug in main.py" --provider anthropic --model claude-sonnet-4-20250514
- 対話モード
複数回の対話と反復的な開発に適したインタラクション・モードに入る:trae-cli interactive
モデルと最大ステップ数を指定できる:
trae-cli interactive --provider openai --model gpt-4o --max-steps 30
インタラクティブモードでは、ユーザは連続的にコマンドを入力することができ、Trae Agentはコンテキストに従ってステップバイステップでタスクを完了します。
- 操作ログの保存
デバッグのために、タスク実行ごとに操作ログを生成することができる。デフォルトでは、ログはtrajectory_YYYYMMDD_HHMMSS.json
またはファイルを指定する:trae-cli run "Optimize the database queries" --trajectory-file optimization_debug.json
- フォース生成パッチ
ファイルの変更を必要とするタスクについては、パッチを強制的に生成することができる:trae-cli run "Update the API endpoints" --must-patch
- 作業ディレクトリのカスタマイズ
タスクを実行するプロジェクト・ディレクトリを指定する:trae-cli run "Add unit tests for the utils module" --working-dir /path/to/project
注目の機能操作
- レイクビューの概要
Trae AgentのLakeview機能は、タスクステップの簡潔な要約を提供します。タスク実行後、ログファイル(例trajectory_20250612_220546.json
)中的 Lakeview 字段,快速了解执行步骤。 - マルチLLMサポート
ユーザーは--provider
歌で応える--model
パラメータを使ってモデルを切り替えることができる。例えば オープンルーター GPT-4oの:trae-cli run "Optimize this code" --provider openrouter --model "openai/gpt-4o"
- ツールエコロジー
Trae Agentには、ファイル編集、bash実行などのツールが組み込まれています。例えば、自動ファイル編集:trae-cli run "Add documentation to main.py"
このツールは文書を生成し、指定されたファイルに保存します。
ほら
- APIキーが有効であることを確認してください。有効でない場合、タスクは実行できません。
- このプロジェクトはアルファ版であり、不安定である可能性がある。
- ログファイルには詳細な操作が記録されており、容量を節約するために定期的にクリーニングすることが推奨されている。
アプリケーションシナリオ
- 自動コード生成
開発者は "Create REST API framework "と入力するだけで、Trae AgentがPythonやその他の言語でフレームワークを生成し、手作業でコードを書く時間を節約できます。 - コードのデバッグと修正
"fix errors in main.py "と入力すると、Trae Agentがコードを解析し、問題を特定し、バグを素早く修正するのに適したパッチを生成します。 - インテリジェント・ボディの研究開発
モジュール設計のため、研究者は新しいツールやワークフローをテストするためにTrae Agentのアーキテクチャを変更することができ、学術研究に適しています。 - バッチタスク処理
スクリプトでTrae Agentを呼び出し、複数のモジュールのユニットテストを追加するなどのタスクを一括して実行し、効率を向上させます。
品質保証
- Trae Agentはどの言語に対応していますか?
Python 3.12が主にサポートされているが、ツール・エコロジーを通じて他の言語のコード生成や編集もサポートできる。 - 異なるLLMモデルを切り替えるには?
利用する--provider
歌で応える--model
などのパラメータがある。trae-cli run "任务" --provider openai --model gpt-4o
. - ログファイルはどのように使用されますか?
ログファイルにはタスクの各ステップが記録されており、JSONファイルを閲覧することで実行プロセスを分析できるため、デバッグや最適化に適している。 - そのプロジェクトは本番環境に適しているか?
現在アルファ版であり、開発および研究用に推奨されている。