Optimierung von DeepFace auf leistungsschwacher Hardware
DeepFace, eine Deep-Learning-Toolbibliothek, kann bei der Ausführung auf CPU-Geräten auf Geschwindigkeitsengpässe stoßen. Hier sind ein paar bewährte Optimierungsoptionen:
- Vorberechnete Gesichtseinbettung: Für Datenbankszenarien, die wiederholte Abfragen erfordern, übergeben Sie präemptiv die
DeepFace.represent()Berechnen Sie alle Vektoren der Gesichtsmerkmale und speichern Sie sie als Pickle-Datei, und laden Sie die eingebetteten Daten direkt für spätere Abfragen - Auswahl des Modells: Wählen Sie ein leichtgewichtiges Modell wie GhostFaceNet anstelle von VGG-Face, das bei der Initialisierung angegeben werden kann.
model_name='GhostFaceNet' - ChargenkontrolleAnalyse: Wird verwendet, wenn mehrere Bilder analysiert werden.
batch_sizeDie Parameter steuern die Anzahl der Behandlungen in einer einzigen Sitzung (Empfehlungen 4-8) - Vorverarbeitung von Bildern: durch
enforce_detection=FalseÜberspringen Sie die strenge Gesichtserkennung, oder verwenden SieresampleReduzierte Eingangsauflösung
Für eine gründlichere Optimierung sollten Sie 1) die Verwendung der ONNX Runtime zur Beschleunigung der Inferenz, 2) die Verwendung einer quantisierten Version des Modells und 3) die Kompilierung und Installation einer speziell optimierten Version von TensorFlow Lite auf einem Gerät wie einem Raspberry Pi in Betracht ziehen.
Diese Antwort stammt aus dem ArtikelDeepFace: eine leichtgewichtige Python-Bibliothek zur Erkennung von Alter, Geschlecht, Emotionen und Ethnie im GesichtDie































