安装和运行 GPT-OSS 模型需要以下步骤:
- 下载模型权重:通过 huggingface-cli 从 Hugging Face 平台下载,例如:
huggingface-cli download openai/gpt-oss-120b --include 'original/*' --local-dir gpt-oss-120b/
- 配置 Python 环境:建议使用 Python 3.12 创建虚拟环境,并安装 transformers、accelerate 和 torch 等依赖包
- 运行模型:可以通过多种方式运行,包括 Transformers 实现、vLLM 实现、Ollama 实现等。例如使用 Transformers 加载模型:
pipe = pipeline('text-generation', model='openai/gpt-oss-20b', torch_dtype='auto', device_map='auto')
注意必须使用 Harmony 格式,否则模型无法正常工作。对于 Apple Silicon 设备,还需要将权重转换为 Metal 格式。
本答案来源于文章《GPT-OSS:OpenAI开源的高效推理大模型》