現地配備のGLM-4.5Vを満たす必要がある:
- ハードウェアだ:モデル実行をサポートする大容量ビデオメモリを搭載した高性能NVIDIA GPU(A100/H100 など)。
- 依存的なインストール:はこびだす
pip install transformers torch accelerate Pillow
必要なライブラリをインストールする。
展開のステップ:
- ハギング・フェイス・ハブからモデルをダウンロード
zai-org/GLM-4.5V
. - 利用する
AutoProcessor
歌で応えるAutoModelForCausalLM
モデルをロードする。eval()
モードでGPUに移行する。 - 画像とテキストプロンプトを組み合わせて入力する。
apply_chat_template
処理、入力モデルは応答を生成する。 - 生成パラメーターを調整する(例
max_new_tokens
そしてtemperature
)は出力効果をコントロールする。
この答えは記事から得たものである。GLM-4.5V:画像や動画を理解しコードを生成できるマルチモーダル対話モデルについて