grundlegende Vorbereitung
Es muss ein spezielles Paket für die Sprachinteraktion installiert werden:npm install @voltagent/voiceDieses Paket kapselt die zugrunde liegenden Schnittstellen wie die Web Speech API.
Zentrale Konfigurationsschritte
- Aktivieren der Sprachfunktion: In der Smart Body-Konfiguration eingestellt
voice: true - Kompetenz im Umgang: Browser-seitiger Mikrofonzugriff erforderlich
- Sprachparameter:: Einstellbare Sprachgeschwindigkeit, Tonhöhe und Spracherkennungsempfindlichkeit
Code-Beispiel
const voiceAgent = new Agent({
name: "语音助手",
llm: new VercelAIProvider(),
model: openai("gpt-4o-mini"),
voice: {
recognitionLang: "zh-CN", // 中文识别
synthesisVoice: "Microsoft Yaoyao" // 中文语音
}
});
typische Anwendung
- Intelligente Kundenbetreuung:: Automatisches Anrufbeantworter-System
- SprachassistentSmart Home-Zentrale
- Pädagogische Anwendungen: Sprachlernbegleitung
caveat
Die Genauigkeit der Spracherkennung wird durch Umgebungsgeräusche beeinträchtigt. Es wird daher empfohlen, Tastenbetätigungen in einer ruhigen Umgebung zu bestätigen. Für die Browser-Kompatibilität werden die neuesten Versionen von Chrome und Edge am besten unterstützt.
Diese Antwort stammt aus dem ArtikelVoltAgent: ein Open-Source-Framework für TypeScript zum schnellen Aufbau von KI-IntelligenzenDie
































