使用Qwen3-8B-BitNet需要经过以下步骤:
- 环境准备:安装Python 3.8+并创建虚拟环境(推荐)
- 依赖安装:通过pip安装transformers和torch库(GPU用户需安装CUDA版PyTorch)
- 模型加载:使用AutoModelForCausalLM和AutoTokenizer从Hugging Face加载模型
典型的使用代码示例:
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "codys12/Qwen3-8B-BitNet"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name,
torch_dtype="auto",
device_map="auto")
生成文本时,可通过apply_chat_template方法设置enable_thinking参数来切换思考模式。
本答案来源于文章《Qwen3-8B-BitNet:高效压缩的开源语言模型》