高い計算コストに対処する3つの方法
従来の文脈学習手法では、外部知識を扱うと計算コストが二乗的に増大するのに対し、KBLaMは以下のような革新的なメカニズムによって線形成長を実現している:
- キー・バリュー・ベクトル変換技術知識ベースをキーと値のペアに変換し、知識ベクトルをダブルカウントせずに一度だけ格納する。
- 長方形のアテンション・メカニズム改善された注意層構造により、知識照会時に関連するベクトル領域のみが活性化される。
- アダプター微調整プログラム元のモデルの0.1%のパラメータを占めるだけの軽量アダプターだけをトレーニングする必要があります。
これは3つのステップで最適化できる。generate_kb_embeddings.pyスクリプトで事前に計算された知識ベクトルを選択する。all-MiniLM-L6-v23)知識の更新時にインクリメンタル・コーディング・モデルを使用する(公式のdelta_update(パラメータ)。実験データによると、KBLaMは100万個の知識を処理する場合、従来の方法よりも83%の計算資源を節約できる。
この答えは記事から得たものである。KBLaM:大規模モデルに外部知識を埋め込むためのオープンソース拡張ツールについて































