HRMは以下の7つの点で、主流のビッグ・ランゲージ・モデルとは根本的に異なる:
- 推論機構LLMの錯覚問題を回避するために、言語的確率モデリングではなく記号演算を用いる
- トレーニングのニーズ事前学習や思考連鎖データが不要で、わずか1000サンプルで高精度を達成(例:数独タスクで完璧に近い精度を達成)
- 時間効率逐次推論は1回の順伝播で可能(LLMでは通常複数回の反復が必要)
- ハードウェア要件RTX 4070のようなコンシューマー向けGPUでもトレーニングが可能。
- アプリケーションシナリオ構造化推論タスクに最適化 (数独/迷路/ARCなど)
- 結果の確実性記号的推論課題において、より高い精度と安定性
- オープンソースのレベルフルコードも事前学習済みモデルもオープンソース(GitHub)です。
典型的な比較例:ARC-AGI-2ベンチマークにおいて、HRMは非常に少ないパラメータ数で、100倍のスケールを持つ多くの大規模モデルを凌駕した。
この答えは記事から得たものである。HRM:複雑な推論のための階層的推論モデルについて































