超ロングコンテキストの技術的実装と価値
GLM-4.5でネイティブにサポートされている128Kのコンテキストウィンドウは、GLM-4.5の重要な技術的ブレークスルーです。この機能は、位置補間とアテンション最適化技術に基づいて実装されており、300ページ以上の技術文書や10万語以上の文学作品を完全に処理することができます。主流モデルの32K制限と比較して、その長文理解精度は37%向上しています。
具体的なアプリケーションシナリオにおいて、この機能は2つの大きな利点をもたらします。1つ目は、法的な契約を分析する際に、条項間の一貫性を維持するような文書レベルの意味理解、2つ目は、100ページの技術マニュアルを操作手順に変換する際に、論理的な一貫性を維持するような複雑なタスクの分解です。テストデータによると、Needle-in-a-Haystack評価において、128Kテキスト終了時のGLM-4.5の情報抽出精度は89%に達し、Llama 3などの類似製品をはるかに上回っています。その構造化された出力機能と相まって、金融や法律などの長いテキスト処理シナリオに理想的な選択肢となっています。
この答えは記事から得たものである。GLM-4.5: 知的推論とコード生成をサポートするオープンソースのマルチモーダル大規模モデルについて































