7Bモデル導入の完全なプロセスは、3つの重要なステップで構成される:
- 環境設定Python 3.8+ 環境では、PyTorch と transformers ライブラリが必要です (
pip install torch transformers)、NVIDIA A100/A800のようなFP16精度をサポートするGPUを使用し、少なくとも15GBのビデオメモリを確保することを推奨します。 - モデル取得::
- GitHubリポジトリのクローン:
git clone https://github.com/ECNU-ICALK/EduChat.git - Hugging Faceからモデルファイルをダウンロードする:
huggingface-cli download ecnu-icalk/educhat-sft-002-7b
- GitHubリポジトリのクローン:
- モデルローディング以下のPythonコードを使って対話システムを初期化します:
from transformers import LlamaForCausalLM, LlamaTokenizer
tokenizer = LlamaTokenizer.from_pretrained('ecnu-icalk/educhat-sft-002-7b')
model = LlamaForCausalLM.from_pretrained('ecnu-icalk/educhat-sft-002-7b', torch_dtype=torch.float16).half().cuda()
配備後、system_promptのテーマスイッチ(心理学/ソクラテス/一般)を変更することで、異なるダイアログモードを切り替えることができます。メモリのオーバーフローを避けるために、メモリの状況に応じてバッチサイズを調整する必要があることに注意してください。
この答えは記事から得たものである。EduChat:オープンソースの教育対話モデルについて





























