Bei der Entwicklung von AIRI stand der Schutz der Privatsphäre der Nutzer im Mittelpunkt, und die lokale Inferenzfunktion ist eine konzentrierte Manifestation dieser Philosophie. Diese Funktion ermöglicht es den Nutzern, KI-Modelle vollständig außerhalb der Cloud laufen zu lassen, wobei die gesamte Datenverarbeitung auf dem lokalen Gerät erfolgt, wodurch das Risiko eines Verlusts der Privatsphäre grundlegend eliminiert wird.
Aus technischer Sicht bietet AIRI eine Vielzahl lokaler Inferenzoptionen: Für Browser-Nutzer kann es die Vorteile der WebGPU-Beschleunigung nutzen, die in modernen Browsern gut unterstützt wird, und für Desktop-Nutzer kann es die Vorteile spezialisierter Grafikbeschleunigungstechnologien wie NVIDIA CUDA oder Apple Metal für noch mehr Rechenleistung nutzen. Insbesondere für Mac-Benutzer bedeutet die Unterstützung des Metal-Frameworks, dass auch sie eine nahezu professionelle GPU-Rechenleistung erhalten können.
Es ist erwähnenswert, dass AIRI eine ausgezeichnete Benutzerfreundlichkeit beibehält, während es lokale Überlegungen ermöglicht. Die Benutzer müssen nur die entsprechende Option in den Einstellungen auswählen, um den lokalen Modus zu aktivieren. Dieses Design, das die komplexe Technologie zu einer Point-and-Click-Bedienung vereinfacht, zeigt, dass sich das Entwicklungsteam viele Gedanken über die Benutzerfreundlichkeit gemacht hat.
Diese Antwort stammt aus dem ArtikelAIRI: Selbstgehosteter virtueller KI-Begleiter mit Unterstützung für Echtzeit-Sprach- und SpielinteraktionDie




























