
1. von der Erstellung einfacher Regeln zum Start Die Erstellung von Regeln für die Erstellung des Themas (Artikeltitel) vor der Erstellung von Materialien, ist der Ausgangspunkt des gesamten Artikelerstellungsprozesses. Hier verwende ich den einfachsten Regeltyp "Zufällige Kategorie", um eine Regel zu erstellen. Erläuterung der folgenden Konfiguration: Verwenden Sie zufällig den Namen und die Beschreibung der 10 Kategorien ...

1.1 Operation Guidelines 1.1 Multi-Sprachen-Auswahl Nur in der Abbildung Kanal Multi-Sprachen-Auswahl gültig ist 1.2 Chinesisch Keyword-Mining-Techniken Es wird empfohlen, dass nur Google und Baidu Mit einer Mischung aus chinesischen und englischen Keywords, ist es empfehlenswert, dass die englische Verwendung Kleinbuchstaben, mehrere Wörter durch Leerzeichen getrennt Keyword Expansion Tipps: Verwenden Sie ein großes Modell, um die Basis zu bekommen...

Der AI Content Manager stützt sich auf den Namen der Klassifizierung und die detaillierte Beschreibung der Klassifizierung, um die Richtung des generierten Inhalts zu steuern und automatisch die passende Klassifizierung auszuwählen. Nach der Einrichtung der Kategorien, klicken Sie bitte einmal, um die...

Dies ist AI Content Generation Manager, exklusives Thema, kann nicht direkt diese Vorlage verwenden. Nach der Aktivierung befinden sich alle zugehörigen Einstellungen in den "Theme Settings". 1. sekundären Domain-Namen-Zugang aktivieren Was ist der Fall für die Aktivierung sekundären Domain-Namen-Zugang? Sie haben bereits eine Website und möchten das Gewicht der Hauptseite erhöhen, um Besucher anzuziehen; oder für einzelne...

Nun, zu diesem Zeitpunkt haben wir über 1000 Zeilen in unserer Markdown-Datei. Das hier ist hauptsächlich zum Spaß.

Wenn Sie auf eine Einführung in humanlayer gewartet haben, dann ist dies die richtige. Wenn Sie Element 6 - Starten/Pausieren/Fortsetzen über eine einfache API und Element 7 - Kontaktaufnahme mit Menschen über Tool-Aufrufe praktizieren, dann sind Sie bereit, dieses Element zu integrieren. Erlauben Sie dem Benutzer das Starten/Pausieren/Fortsetzen von...

Anstatt monolithische Intelligenzen zu bauen, die versuchen, alles zu tun, ist es besser, kleine, konzentrierte Intelligenzen zu bauen, die eine Sache gut machen können. Intelligenzen sind nur ein Baustein in einem größeren, weitgehend deterministischen System. Die wichtigste Erkenntnis hier ist die Einschränkung des Modells der großen Sprache: Je größer und komplexer die Aufgabe, desto...

Dies ist ein unbedeutender Punkt, aber erwähnenswert. Einer der Vorteile eines Agenten ist, dass er "selbstheilend" ist - bei kurzen Aufgaben kann ein großes Sprachmodell (LLM) ein fehlgeschlagenes Tool aufrufen. Es besteht eine gute Chance, dass ein gutes LLM in der Lage ist, eine Fehlermeldung oder einen Stack-Trace zu lesen und...

Wenn Sie die Kontrolle über Ihren eigenen Kontrollfluss haben, können Sie viele interessante Funktionen implementieren. Erstellen Sie benutzerdefinierte Kontrollstrukturen, die zu Ihrem speziellen Anwendungsfall passen. Bestimmte Arten von Toolaufrufen könnten ein Grund sein, aus einer Schleife herauszuspringen, auf die Antwort eines Menschen zu warten oder auf eine andere lang laufende Aufgabe zu warten (z. B. eine Trainingspipeline)...

Standardmäßig beruht die API des Large Language Model (LLM) auf einer grundlegend wichtigen Token-Entscheidung: Geben wir reinen Textinhalt oder strukturierte Daten zurück? Sie legen viel Gewicht auf die erste Token-Wahl, die im Fall des Wetters in Tokio...

Intelligenzen sind Programme, und wir erwarten, dass man sie auf irgendeine Weise starten, abfragen, fortsetzen und beenden kann. Nutzer, Anwendungen, Pipelines und andere Intelligenzen sollten in der Lage sein, eine Intelligenz über eine einfache API zu starten. Wenn langwierige Operationen durchgeführt werden müssen, sollten Intelligenzen und ihre Orchestrierung deterministischen Code...

Auch außerhalb des Bereichs der KI versuchen viele Infrastruktursysteme, den "Ausführungsstatus" vom "Geschäftsstatus" zu trennen. Bei KI-Anwendungen kann dies komplexe Abstraktionen beinhalten, um Informationen wie den aktuellen Schritt, den nächsten Schritt, den Wartezustand, Wiederholungsversuche usw. zu verfolgen. Diese Trennung führt zu Komplexität, und obwohl es sich lohnen kann,...

Das Werkzeug muss nicht komplex sein. Im Kern handelt es sich einfach um strukturierte Ausgaben Ihres Large Language Model (LLM), die zum Auslösen von deterministischem Code verwendet werden. Angenommen, Sie haben zwei Werkzeuge CreateIssue und SearchIssues. Ein Large Language Model (LLM) zu bitten, "eines von mehreren Werkzeugen zu verwenden", bedeutet in Wirklichkeit, es zu bitten, eine Ausgabe zu machen...

Sie müssen kein standardisiertes, nachrichtenbasiertes Format verwenden, um dem großen Sprachmodell Kontext zu liefern. Zu jedem Zeitpunkt lautet Ihre Eingabe an das große Sprachmodell in der KI-Intelligenz: "Hier ist alles, was bisher passiert ist, und hier ist, was als Nächstes zu tun ist". Das große Sprachmodell ist...

Lagern Sie die Entwicklung Ihrer Eingabeaufforderung nicht an ein Framework aus. Übrigens ist dies kein neuer Ratschlag: Einige Frameworks bieten einen "Blackbox"-Ansatz wie diesen: agent = Agent( role="..." , goal="..." , personality="..." , tools=...

Eines der gängigsten Muster beim Aufbau von Intelligenzen ist die Umwandlung natürlicher Sprache in strukturierte Werkzeugaufrufe. Dies ist ein leistungsfähiges Muster, mit dem Sie Intelligenzen erstellen können, die über Aufgaben nachdenken und sie ausführen können. Dieses Muster, wenn es atomar angewandt wird, besteht darin, einen Satz (z. B.) zu nehmen, den Sie für Ter...

Ausführliche Version: Wie wir hierher gekommen sind Sie müssen nicht auf mich hören Egal, ob Sie neu auf dem Gebiet der Intelligenzen sind oder ein mürrischer Veteran wie ich, ich werde versuchen, Sie davon zu überzeugen, die meisten Ihrer bereits bestehenden Ansichten über KI-Intelligenzen über Bord zu werfen, einen Schritt zurückzutreten und sie von Grund auf zu überdenken. (Wie...

Eine umfassende Einführung "12-Factor Agents" ist keine spezifische Softwarebibliothek oder ein Framework, sondern vielmehr eine Reihe von Entwurfsprinzipien für den Aufbau zuverlässiger, skalierbarer und leicht zu wartender LLM-Anwendungen (Large Language Model). Das Projekt wurde vom Entwickler Dex initiiert, der feststellte, dass viele Teams bestehende KI-Weise .....

FineTuningLLMs ist ein GitHub-Repository des Autors dvgodoy, das auf seinem Buch A Hands-On Guide to Fine-Tuning LLMs with PyTorch and Hugging Face basiert. Dieses Repository...
zurück zum Anfang