使用Qwen3-8B-BitNet需要经过以下步骤:
- Vorbereitung der Umwelt:安装Python 3.8+并创建虚拟环境(推荐)
- Abhängige Installation:通过pip安装transformers和torch库(GPU用户需安装CUDA版PyTorch)
- Modellbeladung:使用AutoModelForCausalLM和AutoTokenizer从Hugging Face加载模型
典型的使用代码示例:
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "codys12/Qwen3-8B-BitNet"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name,
torch_dtype="auto",
device_map="auto")
生成文本时,可通过apply_chat_template方法设置enable_thinking参数来切换思考模式。
Diese Antwort stammt aus dem ArtikelQwen3-8B-BitNet: ein quelloffenes Sprachmodell für effiziente KompressionDie