GPT-OSSモデルのインストールと実行には、以下の手順が必要です:
- モデルウェイトのダウンロード:Hugging Faceプラットフォームから、例えばhuggingface-cli経由で:
huggingface-cli download openai/gpt-oss-120b --include 'original/*' --local-dir gpt-oss-120b/
- Python環境の設定: Python 3.12を使用して仮想環境を作成し、トランスフォーマー、アクセラレート、トーチの依存関係をインストールすることを推奨します。
- モデルの実行:Transformersの実装、vLLMの実装、Ollamaの実装など、さまざまな方法で実行することができる。例えば、Transformersを使ってモデルをロードする:
pipe = pipeline('text-generation', model='openai/gpt-oss-20b', torch_dtype='auto', device_map='auto')
Harmonyフォーマットを使用しないと、モデルが正しく動作しないことに注意してください。Apple Siliconデバイスの場合、ウェイトもMetalフォーマットに変換する必要があります。
この答えは記事から得たものである。GPT-OSS:OpenAIの効率的推論のためのオープンソース・ビッグモデルについて