Durch die Integration mit Plattformen wie Ollama kann WeKnora flexibel zwischen den gängigen großen Modellen wie Qwen und DeepSeek wechseln. Das System wandelt private Dokumente in Vektoren um und speichert sie in der lokalen Datenbank. Wenn ein Nutzer eine Frage stellt, ruft es zunächst das relevante Dokumentenfragment ab und gibt dann das Fragment und die Frage in das große Modell ein, um eine Antwort zu generieren. Auf diese Weise wird nicht nur die Argumentationsfähigkeit des großen Modells genutzt, sondern auch sichergestellt, dass die Antwort auf den privaten Daten des Unternehmens basiert und die sachlichen Fehler des allgemeinen Modells vermieden werden. Der gesamte Prozess wird über das Intranet des Unternehmens abgewickelt und bildet einen sicheren geschlossenen Kreislauf.
Diese Antwort stammt aus dem ArtikelWeKnora: Tencents sofort einsatzbereite Q&A-Wissensdatenbank auf UnternehmensebeneDie