GLM-4.5V unterstützt eine maximale Ausgabelänge von 64K Tokens, eine Funktion, die es ermöglicht, extrem lange Texte oder komplexe multimodale Inhalte zu erzeugen. Dank der Unterstützung langer Kontexte kann das Modell Dutzende von Dokumentenseiten tiefgehend analysieren, vollständige Codedateien generieren oder lange Videoinhalte parsen. Um ein Gleichgewicht der Effizienz in verschiedenen Szenarien zu erreichen, führt das Modell auch einen innovativen "Thinking Mode"-Schalter ein, der es dem Benutzer ermöglicht, je nach den Anforderungen der Aufgabe zwischen einem schnellen Reaktions- und einem tiefgründigen Denkmodus zu wählen, wobei der erste Modus für Echtzeit-Interaktionen und der zweite für Szenarien geeignet ist, die komplexe logische Analysen erfordern.
Diese Antwort stammt aus dem ArtikelGLM-4.5V: Ein multimodales Dialogmodell, das Bilder und Videos versteht und Code erzeugtDie