ローカル展開の詳細ガイド
インストールと実行には以下の手順が必要です:
- 環境準備::
Python 3.8+をインストールし、コマンドを実行する:pip install transformers torch
GPUユーザーはPyTorch for CUDAを追加でインストールする必要があります。 - モデルダウンロード::
ハギング・フェイス・ライブラリーを通してロード:from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "tngtech/DeepSeek-TNG-R1T2-Chimera"
model = AutoModelForCausalLM.from_pretrained(model_name) - ハードウェア構成::
少なくとも32GBのRAMを推奨し、16GB以上のGPUメモリが必要。
複数のGPUが利用可能device_map="auto"パラメトリック - 初歩的推論::
サンプルコード:input_text = "解释区块链技术"
inputs = tokenizer(input_text, return_tensors="pt").to("cuda")
outputs = model.generate(**inputs, max_length=200)
注:モデルファイルは約13.5GBあるので、安定したインターネット接続と十分なストレージ容量があることを確認してください。
この答えは記事から得たものである。DeepSeek-TNG-R1T2-Chimera: ドイツTNG社がDeepSeekの機能強化を発表について































