Die folgenden Installations- und Konfigurationsschritte sind erforderlich, um Gaze-LLE zu verwenden:
Installationsprozess:
- Klonen des Projektlagers:
git clone https://github.com/fkryan/gazelle.git - Wechseln Sie in das Projektverzeichnis und erstellen Sie eine virtuelle Umgebung:
conda env create -f environment.yml - Aktivieren Sie die Umgebung und installieren Sie die Abhängigkeiten:
conda activate gazelle && pip install -e . - Optionale Installation der xformers-Beschleunigung:
pip3 install -U xformers
Modell verwenden:
Gaze-LLE bietet eine große Auswahl an vortrainierten Modellen, die schnell über PyTorch Hub geladen werden können:
- Basismodell:
torch.hub.load('fkryan/gazelle', 'gazelle_dinov2_vitb14') - Großmaßstäbliche Modellierung:
torch.hub.load('fkryan/gazelle', 'gazelle_dinov2_vitl14')
Prädiktive Ausgabe:
Das Modell generiert eine räumliche Heatmap mit Werten im Bereich [0,1], die die Wahrscheinlichkeit angeben, an jedem Ort angestarrt zu werden. Benutzer können sich in den Colab-Demonotizen über den gesamten Implementierungsprozess der Mehrpersonen-Blickprognose informieren.
Diese Antwort stammt aus dem ArtikelGaze-LLE: Zielvorhersage-Tool für Personenblicke in VideosDie































