Zugang aus Übersee: www.kdjingpai.com
Ctrl + D Lesezeichen für diese Seite
Derzeitige Position:Abb. Anfang " AI-Antworten

Wie installiert und konfiguriert man InternVL lokal für den multimodalen Dialog?

2025-08-24 1.5 K

Vorbereitung für den Einbau

Zunächst müssen Sie Ihre Python 3.9-Umgebung konfigurieren, und es wird empfohlen, dass Sie conda zur Verwaltung Ihrer virtuellen Umgebung verwenden.

Installationsschritte

  1. Klon-Lager: Führen Sie es im Terminal ausgit clone https://github.com/OpenGVLab/InternVL.gitund geben Sie den Katalog ein
  2. Erstellen einer virtuellen Umgebung: Verwendungconda create -n internvl python=3.9 -yDie Umwelt gestalten
  3. Installation der grundlegenden Abhängigkeiten: Laufpip install -r requirements.txtInstallation von Kernbibliotheken

Optionale Montage

  • MontageFlash-Attentionum das Denken zu beschleunigen:pip install flash-attn==2.3.6
  • Installieren Sie MMDeploy für die Produktionsbereitstellung:mim install mmdeploy

Nutzung des multimodalen Dialogs

Nach dem Herunterladen des Modells (z.B. InternVL2_5-8B) können Sie den folgenden Code für den multimodalen Dialog verwenden:

from lmdeploy import pipeline
from lmdeploy.vl import load_image
model = 'OpenGVLab/InternVL2_5-8B'
image = load_image('tiger.jpeg')
pipe = pipeline(model)
response = pipe(('描述这张图片', image))
print(response.text)

caveat

Das Modell 8B benötigt ca. 16 GB GPU-Speicher, und bei der Verarbeitung hochauflösender Bilder können weitere Ressourcen erforderlich sein.

Empfohlen

Sie können keine AI-Tools finden? Versuchen Sie es hier!

Geben Sie einfach das Schlüsselwort Barrierefreiheit Bing-SucheDer Bereich KI-Tools auf dieser Website bietet eine schnelle und einfache Möglichkeit, alle KI-Tools auf dieser Website zu finden.

zurück zum Anfang