Zugang aus Übersee: www.kdjingpai.com
Ctrl + D Lesezeichen für diese Seite
Derzeitige Position:Abb. Anfang " AI-Antworten

Rechteckiger Aufmerksamkeitsmechanismus als zentraler technologischer Durchbruch für effizientes Knowledge Retrieval in KBLaM

2025-08-27 1.6 K
Link direktMobile Ansicht
qrcode

Kreative Aufmerksamkeitsarchitektur erklärt

Der innovative Rectangular Attention (RA)-Mechanismus von KBLaM speichert Wissensvektoren in separaten Gewichtsmatrizen, indem er die Schlüssel-Wert-Dimensionen entkoppelt. Im Gegensatz zu herkömmlichen Selbstbeobachtungsmechanismen erlaubt das Design, dass die Dimension des Wissensschlüssels (K) viel größer ist als die Dimension des Wissenswertes (V) (für die Experimente wurde ein Verhältnis von 2048:256 verwendet), wodurch eine "enge und tiefe" Wissensspeicherstruktur entsteht. Das technische Whitepaper zeigt, dass diese Architektur es dem Modell ermöglicht, eine schnelle Abfrage von mehr als 1 Million Wissensdatensätzen zu unterstützen, wobei die Latenzzeit für die Beantwortung von Abfragen auf weniger als 50 ms (A100-Umgebung) begrenzt ist und gleichzeitig ein 768-dimensionaler verborgener Zustand erhalten bleibt. Der Mechanismus verbessert nachweislich die Aufmerksamkeitsgenauigkeit von 191 TP3T gegenüber dem Standard-Transformer bei Aufgaben wie der Vorhersage chemischer Moleküleigenschaften, die eine präzise Abfrage von Fachwissen erfordern.

Empfohlen

Sie können keine AI-Tools finden? Versuchen Sie es hier!

Geben Sie einfach das Schlüsselwort Barrierefreiheit Bing-SucheDer Bereich KI-Tools auf dieser Website bietet eine schnelle und einfache Möglichkeit, alle KI-Tools auf dieser Website zu finden.

zurück zum Anfang

de_DEDeutsch