ネットワーク環境のない開発シナリオのために、Crushは完全なオフラインソリューションを提供します:
- ローカルモデルの統合OllamaのようなネイティブLLMのサポート:
'base_url': 'http://127.0.0.1:11434/v1'
- オフラインLSPサービスプリインストールされている言語サーバーは次のとおりです。
gopls
基本的な情報支援を行う - コンテキストキャッシュ対話の履歴を保持するセッション管理機能
- プリロード設定Nix/Homebrew 経由でパッケージングする際に、一般的な依存関係を含める。
飛行機や機密サイトなどの環境では、開発者は依然として完全なコード生成、補完、デバッグ機能にアクセスでき、すべてのデータ処理はローカルで行われる。
この答えは記事から得たものである。クラッシュ:LSPとマルチモデルスイッチングを統合したエンドポイントAIプログラミングアシスタントについて