主なステップ
AgentVerseは、完全なローカルモデルサポートソリューションを提供します。pip install -r requirements_local.txt
); 2. FSChatサーバーを起動する。scripts/run_local_model_server.sh
); 3.コンフィギュレーション・ファイルで明示的に指定する(この場合はllm_type: local
歌で応えるmodel: llama-2-7b-chat-hf
GPUビデオメモリーの問題については、vLLMサービスを有効にしてください。VLLM_API_BASE
(環境変数)。この方法はVicunaなどのモデルで検証されており、7B/13Bのパラメータバージョンをサポートしている。
この答えは記事から得たものである。AgentVerse:マルチインテリジェンス・コラボレーションとシミュレーションを展開するためのオープンソース・フレームワークについて