Trae Agent 是由字节跳动开源的一款基于大语言模型(LLM)的软件工程任务自动化工具。它通过命令行界面(CLI)接收自然语言指令,自动执行复杂的编程任务,比如编写代码、修复错误或优化程序。项目目前处于 alpha 阶段,仍在积极开发中,欢迎社区贡献。Trae Agent 支持多种大语言模型,如 OpenAI 和 Anthropic,并提供丰富的工具生态,包括文件编辑、脚本执行等功能。它的模块化设计方便开发者定制,适合研究和开发新型智能体。用户可以通过简单的安装流程快速上手,享受透明的开发体验。
Funktionsliste
- Unterstützung von Befehlen in natürlicher Sprache, wie z. B. "Python-Skript erstellen", um automatisch Code zu erzeugen.
- Unterstützt mehrere LLM-Anbieter, darunter OpenAI, Anthropic, Doubao usw. für einen flexiblen Modellwechsel.
- Bietet Dateibearbeitung, Ausführung von Bash-Skripten, sequentielles Denken und andere Werkzeuge, um die verschiedenen Programmieranforderungen zu erfüllen.
- Das Interaktionsmodell unterstützt mehrere Dialogrunden und ist für eine iterative Entwicklung geeignet.
- Zeichnen Sie detaillierte Betriebsprotokolle auf und speichern Sie sie als JSON-Dateien zur einfachen Fehlersuche und Analyse.
- Die flexible Konfiguration wird durch JSON-Profile und Umgebungsvariablen unterstützt.
- Bietet einen einfachen Installationsprozess für eine schnelle Bereitstellung mit Pip oder UV-Tools.
Hilfe verwenden
Einbauverfahren
Trae Agent ist einfach zu installieren, und es wird eine Python 3.12-Umgebung empfohlen. Im Folgenden werden die einzelnen Schritte beschrieben:
- Vorbereiten der Umgebung
Stellen Sie sicher, dass Python 3.12 und pip installiert sind. Es wird empfohlen, das UV-Tool zur Verwaltung der virtuellen Umgebung zu verwenden:pip install uv
Erstellen und aktivieren Sie eine virtuelle Umgebung:
uv venv
source .venv/bin/activate # Linux/Mac
.venv\Scripts\activate # Windows
- Klonprojekt
Klonen Sie das Trae Agent Repository von GitHub:git clone https://github.com/bytedance/trae-agent cd trae-agent
- Installation von Abhängigkeiten
Verwenden Sie UV oder pip, um die Abhängigkeiten zu installieren:uv pip install -r requirements.txt
Oder:
pip install -r requirements.txt
- API-Schlüssel konfigurieren
Trae Agent 支持多种 LLM 提供商,需配置对应 API 密钥。例如,为 OpenAI 和 Anthropisch 配置密钥:export OPENAI_API_KEY='your_openai_api_key' export ANTHROPIC_API_KEY='your_anthropic_api_key'
Überprüfen Sie, ob der Schlüssel erfolgreich gesetzt wurde:
echo $OPENAI_API_KEY echo $ANTHROPIC_API_KEY
- Konfigurationsdatei
Der Trae Agent verwendet zur Verwaltung der Einstellungen eine JSON-Konfigurationsdatei, die sich im Stammverzeichnis des Projekts unter demconfig.json
. Beispielkonfiguration:{ "default_provider": "anthropic", "max_steps": 20, "model_providers": { "openai": { "api_key": "your_openai_api_key", "model": "gpt-4o", "max_tokens": 128000, "temperature": 0.5 }, "anthropic": { "api_key": "your_anthropic_api_key", "model": "claude-sonnet-4-20250514", "max_tokens": 4096, "temperature": 0.5 } } }
Führen Sie nach dem Speichern den folgenden Befehl aus, um die Konfiguration zu überprüfen:
trae show-config
Funktion Betriebsablauf
Die Kernfunktionalität des Trae Agent wird durch die trae
Befehlsaufrufs werden im Folgenden die wichtigsten Funktionen beschrieben:
- Implementierung einer einzelnen Aufgabe
ausnutzentrae-cli run
können Sie Anweisungen in natürlicher Sprache eingeben, um eine Aufgabe auszulösen. Erstellen Sie zum Beispiel ein Skript für ein Fibonacci-Array:trae-cli run "Create a Python script that calculates fibonacci numbers"
Geben Sie das Modell und den Anbieter an:
trae-cli run "Fix the bug in main.py" --provider anthropic --model claude-sonnet-4-20250514
- interaktiver Modus
Wechseln Sie in den Interaktionsmodus, der sich für mehrere Dialogrunden und eine iterative Entwicklung eignet:trae-cli interactive
Modell und maximale Anzahl der Schritte können angegeben werden:
trae-cli interactive --provider openai --model gpt-4o --max-steps 30
Im interaktiven Modus kann der Benutzer fortlaufend Befehle eingeben, und der Trae-Agent erledigt die Aufgabe Schritt für Schritt, je nach Kontext.
- Betriebsprotokoll speichern
Zu Debugging-Zwecken kann für jede Aufgabenausführung ein Betriebsprotokoll erstellt werden. Standardmäßig wird das Protokoll gespeichert alstrajectory_YYYYMMDD_HHMMSS.json
, oder geben Sie eine Datei an:trae-cli run "Optimize the database queries" --trajectory-file optimization_debug.json
- Force Generated Patch
Für Aufgaben, die Änderungen an Dateien erfordern, kann die Erstellung von Patches erzwungen werden:trae-cli run "Update the API endpoints" --must-patch
- Anpassen des Arbeitsverzeichnisses
Geben Sie das Projektverzeichnis an, in dem die Aufgabe ausgeführt werden soll:trae-cli run "Add unit tests for the utils module" --working-dir /path/to/project
Featured Function Bedienung
- Lakeview Zusammenfassung
Die Lakeview-Funktion des Trae-Agenten bietet eine übersichtliche Zusammenfassung der Aufgabenschritte. Nach der Ausführung der Aufgabe können Sie die Protokolldatei einsehen (z. B.trajectory_20250612_220546.json
)中的 Lakeview 字段,快速了解执行步骤。 - Multi-LLM-Unterstützung
Die Benutzer können auf die--provider
im Gesang antworten--model
参数切换不同模型。例如,使用 OpenRouter 的 GPT-4o:trae-cli run "Optimize this code" --provider openrouter --model "openai/gpt-4o"
- Werkzeugökologie
Trae Agent verfügt über integrierte Werkzeuge zur Dateibearbeitung, Bash-Ausführung und mehr. Zum Beispiel die automatische Dateibearbeitung:trae-cli run "Add documentation to main.py"
Das Tool erstellt das Dokument und speichert es in der angegebenen Datei.
caveat
- Stellen Sie sicher, dass der API-Schlüssel gültig ist, da die Aufgabe sonst nicht ausgeführt werden kann.
- Das Projekt befindet sich in der Alpha-Phase und kann noch instabil sein. Wir empfehlen daher, das GitHub-Repository für Updates im Auge zu behalten.
- In der Protokolldatei werden detaillierte Vorgänge aufgezeichnet, und es wird empfohlen, sie regelmäßig zu löschen, um Speicherplatz zu sparen.
Anwendungsszenario
- Automatisierte Code-Generierung
Entwickler geben einfach "Create a REST API framework" ein, und Trae Agent generiert das Code-Framework in Python oder anderen Sprachen, was Zeit für das manuelle Schreiben spart. - Fehlerbehebung und Korrektur von Code
Geben Sie "fix errors in main.py" ein und Trae Agent wird den Code analysieren, das Problem finden und einen Patch generieren, der geeignet ist, Fehler schnell zu beheben. - Forschung und Entwicklung von intelligenten Körpern
Aufgrund des modularen Aufbaus können Forscher die Architektur von Trae Agent ändern, um neue Tools oder Arbeitsabläufe zu testen, die für die akademische Forschung geeignet sind. - Stapelverarbeitung von Aufgaben
Rufen Sie Trae Agent über Skripte auf, um Aufgaben in Stapeln auszuführen, z. B. das Hinzufügen von Unit-Tests für mehrere Module, um die Effizienz zu steigern.
QA
- Welche Sprachen werden von Trae Agent unterstützt?
In erster Linie wird Python 3.12 unterstützt, aber die Codegenerierung und -bearbeitung für andere Sprachen kann durch die Tool-Ökologie unterstützt werden. - Wie kann ich zwischen verschiedenen LLM-Modellen wechseln?
ausnutzen--provider
im Gesang antworten--model
Parameter, wie zum Beispieltrae-cli run "任务" --provider openai --model gpt-4o
. - Wie werden die Protokolldateien verwendet?
In den Protokolldateien wird jeder Schritt einer Aufgabe aufgezeichnet, und die Anzeige von JSON-Dateien ermöglicht die Analyse des Ausführungsprozesses und eignet sich somit für die Fehlersuche oder Optimierung. - Ist das Projekt für eine Produktionsumgebung geeignet?
Es befindet sich derzeit in der Alpha-Phase und wird für die Entwicklung und Forschung empfohlen; in Produktionsumgebungen sollte es mit Vorsicht getestet werden.