Zugang aus Übersee: www.kdjingpai.com
Ctrl + D Lesezeichen für diese Seite

easy-llm-cli ist ein Open-Source-Befehlszeilenwerkzeug, das auf Googles Zwillinge Die CLI wurde entwickelt, um Entwicklern zu helfen, mehrere Large Language Models (LLMs) mit einfachen Befehlen aufzurufen. Es unterstützt APIs für OpenAI, Gemini, Claude und viele andere Modelle und ist mit jedem Modell kompatibel, das dem OpenAI-API-Format folgt. Benutzer können schnell Text generieren, Code analysieren, multimodale Eingaben (wie Bilder oder PDFs) verarbeiten und sogar komplexe Entwicklungsaufgaben über das Terminal automatisieren. Das Tool ist leichtgewichtig, modular und unterstützt benutzerdefinierte Konfigurationen, so dass es von Entwicklern in lokalen oder Produktionsumgebungen eingesetzt werden kann. Das Projekt wird auf GitHub gehostet und verfügt über eine aktive Community, eine detaillierte Dokumentation und einen einfachen Einstieg.

 

Funktionsliste

  • Unterstützt eine breite Palette von großen Sprachmodellen, einschließlich Gemini, OpenAI, Claude, Qwen und anderen.
  • Bietet eine Befehlszeilenschnittstelle zur schnellen Texterstellung, Beantwortung von Fragen oder Verarbeitung von Eingaben.
  • Unterstützt multimodale Eingaben und kann auch Nicht-Text-Inhalte wie Bilder und PDFs analysieren.
  • Bietet Funktionen zur Codeanalyse, um Codekommentare zu erzeugen oder Änderungen an der Codebasis zusammenzufassen.
  • Unterstützung für automatisierte Arbeitsabläufe wie die Verarbeitung von Git-Commits, die Erstellung von Berichten oder Diagrammen.
  • Ermöglicht eine kundenspezifische Modellkonfiguration und einen flexiblen Wechsel der LLM-Anbieter über Umgebungsvariablen.
  • etw. unterstützen MCP Server, die Verbindung mit externen Tools zur Erweiterung der Funktionalität.
  • Open-Source-Projekt mit Unterstützung für Beiträge der Gemeinschaft und lokalen Einsatz.

Hilfe verwenden

Einbauverfahren

Um easy-llm-cli lokal zu verwenden, müssen Sie die folgenden Installationsschritte durchführen. Stellen Sie sicher, dass Ihr System die Mindestanforderungen erfüllt: Node.js 20 oder höher.

  1. Installation von Node.js
    Interviews Node.js offizielle Website Laden Sie Node.js herunter und installieren Sie es (empfohlene Version 20.x oder höher). Führen Sie den folgenden Befehl aus, um die Version zu überprüfen:

    node -v
    

2. **快速运行 CLI**
无需克隆仓库,可直接通过 npx 运行:
```bash
npx easy-llm-cli

Dadurch wird das Tool automatisch heruntergeladen und für eine kurze Testphase gestartet.
3. Globale Installation (empfohlen)
Wenn Sie vorhaben, das Programm über einen längeren Zeitraum zu nutzen, empfiehlt es sich, es global zu installieren:

npm install -g easy-llm-cli

Führen Sie nach Abschluss der Installation den folgenden Befehl aus, um das Programm zu starten:

elc
  1. Installation von der Quelle aus (optional)
    Wenn Sie Anpassungen vornehmen oder Code beisteuern möchten, können Sie das Repository klonen:

    git clone https://github.com/ConardLi/easy-llm-cli.git
    cd easy-llm-cli
    npm install
    npm run start
    
  2. API-Schlüssel konfigurieren
    easy-llm-cli muss mit dem API-Schlüssel des LLM-Anbieters konfiguriert werden. Verwenden Sie zum Beispiel die API von OpenAI:

    export CUSTOM_LLM_PROVIDER="openai"
    export CUSTOM_LLM_API_KEY="sk-xxxxxxxxxxxxxxxxxxxx"
    export CUSTOM_LLM_ENDPOINT="https://api.openai.com/v1"
    export CUSTOM_LLM_MODEL_NAME="gpt-4o-mini"
    

    Oberbefehlshaber (Militär) sk-xxxxxxxxxxxxxxxxxxxx ersetzen Sie ihn durch Ihren eigentlichen Schlüssel. Den eigentlichen Schlüssel finden Sie in der .bashrc vielleicht .zshrc um diese Befehle zur dauerhaften Konfiguration hinzuzufügen.

  3. Docker-Installation (optional)
    Wenn Sie die Bereitstellung in Containern bevorzugen, können Sie Docker verwenden:

    docker build -t easy-llm-cli .
    docker run -d -p 1717:1717 --name easy-llm-cli easy-llm-cli
    

    Stellen Sie sicher, dass der Anschluss 1717 Unbesetzt.

Hauptfunktionen

Der Kern von easy-llm-cli ist der Aufruf des großen Sprachmodells über die Kommandozeile für Textgenerierung, Codeanalyse und Automatisierungsaufgaben. Im Folgenden wird detailliert beschrieben, wie dies zu bewerkstelligen ist:

1. die Texterstellung

Führen Sie den folgenden Befehl aus, um den Text zu erstellen:

elc "写一篇 200 字的 Python 简介"
  • Betriebsanleitung::elc ist der Startbefehl für das Werkzeug, gefolgt von einer Eingabeaufforderung. Das konfigurierte Modell (z. B. Gemini oder OpenAI) wird standardmäßig verwendet. Sie können das Modell über Umgebungsvariablen wechseln.
  • AusfuhrenDas Modell liefert ein Python-Profil mit 200 Wörtern in einem übersichtlichen Format.

2. die Code-Analyse

Führen Sie den folgenden Befehl im Projektverzeichnis aus, um die Codebasis zu analysieren:

cd my-project
elc "总结昨天的 Git 提交记录"
  • BetriebsanleitungDas Tool durchsucht den Git-Verlauf des aktuellen Verzeichnisses und erstellt eine Zusammenfassung der Commits.
  • AusfuhrenRückgabe von Einreichungsanweisungen, gruppiert nach Zeit oder Funktion.

3. multimodale Eingaben

easy-llm-cli unterstützt die Verarbeitung von Bildern oder PDFs, z.B. die Extraktion von Text aus PDFs:

elc "提取 PDF 中的文本" -f document.pdf
  • Betriebsanleitung::-f Parameter gibt den Dateipfad an. Unterstützte Formate sind PDF und Bilder (JPEG, PNG usw.).
  • AusfuhrenText: Gibt den extrahierten Textinhalt zurück.

4. automatisierte Arbeitsabläufe

Über den MCP-Server kann das Tool eine Verbindung zu externen Systemen herstellen. Zum Beispiel, um Git-Historiendiagramme zu erstellen:

elc "生成过去 7 天的 Git 提交柱状图"
  • BetriebsanleitungSie müssen den MCP-Server konfigurieren (z. B. @antv/mcp-server-chart). Das Tool ruft das Modell auf, um die Diagrammdaten zu erzeugen, und stellt sie über MCP dar.
  • AusfuhrenBalkengrafik: Gibt Daten oder Visualisierungsergebnisse zurück.

5. kundenspezifische Modellkonfiguration

Mit Hilfe von Umgebungsvariablen können Sie zu anderen Modellen, wie z. B. Claude, wechseln:

export CUSTOM_LLM_PROVIDER="openrouter"
export CUSTOM_LLM_API_KEY="your-openrouter-key"
export CUSTOM_LLM_MODEL_NAME="claude-sonnet-4"
elc "分析这段代码的功能" < myfile.py
  • BetriebsanleitungNachdem Sie die Umgebungsvariablen gesetzt haben, führen Sie den Befehl zum Modellwechsel aus.
  • Ausfuhren: Rückkehr Claude Modellanalyse des Codes.

Featured Function Bedienung

1. multimodale Unterstützung

easy-llm-cli unterstützt die Verarbeitung von multimodalen Eingaben wie Bildern, PDFs usw. Zum Beispiel bei der Erstellung von Bewerbungsentwürfen:

elc "根据 sketch.jpg 生成 Web 应用代码" -f sketch.jpg
  • BetriebsanleitungLaden Sie eine Designskizze hoch, und das Modell generiert den entsprechenden HTML/CSS/JavaScript-Code.
  • AusfuhrenRückgabe des vollständigen Webanwendungscode-Frameworks.

2. automatisierte Aufgaben

Werkzeuge können komplexe Entwicklungsaufgaben bewältigen. Zum Beispiel die Automatisierung von Git-Vorgängen:

elc "处理 GitHub Issue #123 的代码实现"
  • BetriebsanleitungDas Tool liest die Problembeschreibung, generiert den Implementierungscode und sendet einen Pull Request ein.
  • AusfuhrenRückgabe des generierten Codes und des PR-Links.

3. programmatische Integration

Entwickler können easy-llm-cli in ihren Code integrieren. Zum Beispiel mit Node.js:

import { ElcAgent } from 'easy-llm-cli';
const agent = new ElcAgent({
model: 'gpt-4o-mini',
apiKey: 'your-api-key',
endpoint: 'https://api.openai.com/v1'
});
const result = await agent.run('生成销售数据的柱状图');
console.log(result);
  • Betriebsanleitung: durch ElcAgent Klassenaufrufmodell, geeignet für die Einbettung in Automatisierungsskripte.
  • AusfuhrenRückgabe der Ergebnisse der Verarbeitung, z. B. Diagrammdaten.

caveat

  • Vergewissern Sie sich, dass der API-Schlüssel gültig ist und dass die Netzwerkverbindung stabil ist.
  • Multimodale Funktionalität erfordert Modellunterstützung (siehe offizielles Testformular). Zum Beispiel, Gemini-2.5-pro und die GPT-4.1 unterstützt Multimodalität, während einige Modelle wie DeepSeek-R1 Keine Unterstützung.
  • Wenn Sie komplexe Aufgaben ausführen, prüfen Sie die CUSTOM_LLM_MAX_TOKENS ausreichend ist (Standardwert 8192).
  • Wenn Sie auf Probleme stoßen, überprüfen Sie die Dokumentation zur Fehlersuche Oder laufen:
    elc logs
    

Anwendungsszenario

  1. Analyse der Codebasis
    Entwickler können das neue Projekt ausführen elc "描述系统架构"schnell die Codestruktur zu verstehen, geeignet für die Übernahme von unbekannten Projekten.
  2. Generierung von Anwendungsprototypen
    Der Designer lädt eine Skizze oder eine PDF-Datei hoch, führt elc "生成 Web 应用"erhalten Sie schnell einen lauffähigen Code-Prototyp.
  3. DevOps-Aufgaben automatisieren
    DevOps-Ingenieure können elc "生成最近 7 天的 Git 提交报告"Erfasst automatisch den Fortschritt der Arbeit des Teams.
  4. Dateiverarbeitung
    Forscher können Folgendes nutzen elc "提取 PDF 中的关键信息" -f paper.pdfden Inhalt von akademischen Dokumenten schnell zu organisieren.

QA

  1. Welche Modelle werden von easy-llm-cli unterstützt?
    Unterstützt Gemini, OpenAI, Claude, Qwen und viele andere sowie jedes benutzerdefinierte Modell, das dem OpenAI-API-Format folgt. Siehe das offizielle Testformular für Details.
  2. Wie behandelt man multimodale Eingaben?
    ausnutzen -f um ein Bild oder eine PDF-Datei hochzuladen, zum Beispiel elc "提取文本" -f file.pdf. Stellen Sie sicher, dass das Modell Multimodalität unterstützt (z. B. Gemini-2.5-pro).
  3. Brauche ich eine kostenpflichtige API?
    Remote-Modelle erfordern einen gültigen API-Schlüssel (z. B. einen kostenpflichtigen Schlüssel für OpenAI oder OpenRouter). Für lokale Modelle wie Qwen2.5-7B-Instruct sind keine zusätzlichen Gebühren erforderlich.
  4. Wie kann ich Fehler beheben?
    in Bewegung sein elc logs Sehen Sie sich das Protokoll an, oder besuchen Sie Dokumentation zur Fehlersuche Holen Sie sich Hilfe.
0Lesezeichen
0Gelobt

Empfohlen

Sie können keine AI-Tools finden? Versuchen Sie es hier!

Geben Sie einfach das Schlüsselwort Barrierefreiheit Bing-SucheDer Bereich KI-Tools auf dieser Website bietet eine schnelle und einfache Möglichkeit, alle KI-Tools auf dieser Website zu finden.

Posteingang

Kontakt

zurück zum Anfang

de_DEDeutsch