DeepResearch unterstützt die lokale Bereitstellung über Docker, hier sind die detaillierten Installationsschritte:
- Klon-Lager: Umsetzung
git clone https://github.com/cat3399/deepresearch.git
Quellcode abrufen - Umgebungsvariablen konfigurieren: Erstellen Sie die .env-Datei im Hauptverzeichnis des Projekts, fügen Sie den API-Schlüssel (Beachten Sie den Unterschied zwischen den Schlüsselkonfigurationsformaten der verschiedenen Dienstanbieter)
- Ein Muss: API-Schlüssel für Google und OpenAI
- Optional: Konfiguration von OpenRouter/Azure/Ollama und anderen Diensten
- Neue Dienste: Lauf
docker-compose up
Zieht automatisch das Bild und startet den Dienst - Überprüfen der Installation: Zugang
http://localhost:8000
Bestätigung des Dienststatus
Bei der Installation ist Vorsicht geboten:
- Docker und Docker Compose müssen im Voraus installiert werden.
- API-Schlüssel müssen ihre Gültigkeit sicherstellen
- Das lokale Ollama-Modell verwendet standardmäßig Port 11434
- Die vollständige Installation dauert in der Regel 5-10 Minuten (je nach Internetgeschwindigkeit).
Diese Antwort stammt aus dem ArtikelDeepResearch: ein vollständig quelloffener KI-Assistent für automatisierte TiefenforschungDie