海外からのアクセス:www.kdjingpai.com
Ctrl + D このサイトをブックマークする
現在の場所図頭 " AIアンサー

ローカル・デバイスでDeepSeek-R1蒸留モデルを実行する方法を教えてください。

2025-09-10 1.9 K

DeepSeek-R1-Distill-Llama-8B モデルを実行するには、以下の手順に従う必要があります:

  1. WasmEdgeのインストールインストールスクリプトの実行 curl -sSf https://raw.githubusercontent.com/WasmEdge/WasmEdge/master/utils/install_v2.sh | bash ベース環境を設定する。
  2. モデルファイルのダウンロード定量化されたGGUF形式のモデル(約5.73GB)を次のコマンドで取得します。 curl -LO https://huggingface.co/second-state/DeepSeek-R1-Distill-Llama-8B-GGUF/resolve/main/DeepSeek-R1-Distill-Llama-8B-Q5_K_M.gguf.
  3. APIサーバーの取得コンパイル済みWasmアプリケーションのダウンロード llama-api-server.wasmクロスプラットフォームの互換性を確保している。
  4. サービス開始テンプレート(-prompt-template llama-3-chat)とコンテキストサイズ(-ctx-size 8096)を指定して、モデルファイルと共にサーバを実行します。
  5. 相互作用試験: ブラウザでlocalhost:8080にアクセスするか、curlリクエストを送信して機能を検証する。例えば、「フランスの首都はどこですか?

このプロセスは、Wasmの軽量性を生かし、複雑な依存関係を回避するため、リソースに制約のあるデバイスに適している。

おすすめ

AIツールが見つからない?こちらをお試しください!

キーワードを入力する アクセシビリティこのサイトのAIツールセクションは、このサイトにあるすべてのAIツールを素早く簡単に見つける方法です。

トップに戻る