Nun, zu diesem Zeitpunkt haben wir über 1000 Zeilen in unserer Markdown-Datei. Das hier ist hauptsächlich zum Spaß.
Wenn Sie auf eine Einführung in humanlayer gewartet haben, dann ist dies die richtige. Wenn Sie Element 6 - Starten/Pausieren/Fortsetzen über eine einfache API und Element 7 - Kontaktaufnahme mit Menschen über Tool-Aufrufe praktizieren, dann sind Sie bereit, dieses Element zu integrieren. Erlauben Sie dem Benutzer das Starten/Pausieren/Fortsetzen von...
Anstatt monolithische Intelligenzen zu bauen, die versuchen, alles zu tun, ist es besser, kleine, konzentrierte Intelligenzen zu bauen, die eine Sache gut machen können. Intelligenzen sind nur ein Baustein in einem größeren, weitgehend deterministischen System. Die wichtigste Erkenntnis hier ist die Einschränkung des Modells der großen Sprache: Je größer und komplexer die Aufgabe, desto...
Dies ist ein unbedeutender Punkt, aber erwähnenswert. Einer der Vorteile eines Agenten ist, dass er "selbstheilend" ist - bei kurzen Aufgaben kann ein großes Sprachmodell (LLM) ein fehlgeschlagenes Tool aufrufen. Es besteht eine gute Chance, dass ein gutes LLM in der Lage ist, eine Fehlermeldung oder einen Stack-Trace zu lesen und...
Wenn Sie die Kontrolle über Ihren eigenen Kontrollfluss haben, können Sie viele interessante Funktionen implementieren. Erstellen Sie benutzerdefinierte Kontrollstrukturen, die zu Ihrem speziellen Anwendungsfall passen. Bestimmte Arten von Toolaufrufen könnten ein Grund sein, aus einer Schleife herauszuspringen, auf die Antwort eines Menschen zu warten oder auf eine andere lang laufende Aufgabe zu warten (z. B. eine Trainingspipeline)...
Standardmäßig beruht die API des Large Language Model (LLM) auf einer grundlegend wichtigen Token-Entscheidung: Geben wir reinen Textinhalt oder strukturierte Daten zurück? Sie legen viel Gewicht auf die erste Token-Wahl, die im Fall des Wetters in Tokio...
Intelligenzen sind Programme, und wir erwarten, dass man sie auf irgendeine Weise starten, abfragen, fortsetzen und beenden kann. Nutzer, Anwendungen, Pipelines und andere Intelligenzen sollten in der Lage sein, eine Intelligenz über eine einfache API zu starten. Wenn langwierige Operationen durchgeführt werden müssen, sollten Intelligenzen und ihre Orchestrierung deterministischen Code...
Auch außerhalb des Bereichs der KI versuchen viele Infrastruktursysteme, den "Ausführungsstatus" vom "Geschäftsstatus" zu trennen. Bei KI-Anwendungen kann dies komplexe Abstraktionen beinhalten, um Informationen wie den aktuellen Schritt, den nächsten Schritt, den Wartezustand, Wiederholungsversuche usw. zu verfolgen. Diese Trennung führt zu Komplexität, und obwohl es sich lohnen kann,...
Das Werkzeug muss nicht komplex sein. Im Kern handelt es sich einfach um strukturierte Ausgaben Ihres Large Language Model (LLM), die zum Auslösen von deterministischem Code verwendet werden. Angenommen, Sie haben zwei Werkzeuge CreateIssue und SearchIssues. Ein Large Language Model (LLM) zu bitten, "eines von mehreren Werkzeugen zu verwenden", bedeutet in Wirklichkeit, es zu bitten, eine Ausgabe zu machen...
Sie müssen kein standardisiertes, nachrichtenbasiertes Format verwenden, um dem großen Sprachmodell Kontext zu liefern. Zu jedem Zeitpunkt lautet Ihre Eingabe an das große Sprachmodell in der KI-Intelligenz: "Hier ist alles, was bisher passiert ist, und hier ist, was als Nächstes zu tun ist". Das große Sprachmodell ist...
Lagern Sie die Entwicklung Ihrer Eingabeaufforderung nicht an ein Framework aus. Übrigens ist dies kein neuer Ratschlag: Einige Frameworks bieten einen "Blackbox"-Ansatz wie diesen: agent = Agent( role="..." , goal="..." , personality="..." , tools=...
Eines der gängigsten Muster beim Aufbau von Intelligenzen ist die Umwandlung natürlicher Sprache in strukturierte Werkzeugaufrufe. Dies ist ein leistungsfähiges Muster, mit dem Sie Intelligenzen erstellen können, die über Aufgaben nachdenken und sie ausführen können. Dieses Muster, wenn es atomar angewandt wird, besteht darin, einen Satz (z. B.) zu nehmen, den Sie für Ter...
Ausführliche Version: Wie wir hierher gekommen sind Sie müssen nicht auf mich hören Egal, ob Sie neu auf dem Gebiet der Intelligenzen sind oder ein mürrischer Veteran wie ich, ich werde versuchen, Sie davon zu überzeugen, die meisten Ihrer bereits bestehenden Ansichten über KI-Intelligenzen über Bord zu werfen, einen Schritt zurückzutreten und sie von Grund auf zu überdenken. (Wie...
Eine umfassende Einführung "12-Factor Agents" ist keine spezifische Softwarebibliothek oder ein Framework, sondern vielmehr eine Reihe von Entwurfsprinzipien für den Aufbau zuverlässiger, skalierbarer und leicht zu wartender LLM-Anwendungen (Large Language Model). Das Projekt wurde vom Entwickler Dex initiiert, der feststellte, dass viele Teams bestehende KI-Weise .....
FineTuningLLMs ist ein GitHub-Repository des Autors dvgodoy, das auf seinem Buch A Hands-On Guide to Fine-Tuning LLMs with PyTorch and Hugging Face basiert. Dieses Repository...
Die Technologie der Large Language Modelling (LLM) entwickelt sich rasant, und die Open-Source-Gemeinschaft bringt eine Fülle wertvoller Lernressourcen hervor. Diese Projekte sind eine Fundgrube an Praktiken für Entwickler, die LLM systematisch beherrschen wollen. In diesem Artikel werfen wir einen detaillierten Blick auf neun der besten Open-Source-Projekte auf GitHub, die weithin gelobt werden, nicht...
Einführung In diesem Kurs werden folgende Themen behandelt: Wie plant man effektiv den Einsatz von AI Agent in einer Produktionsumgebung? Häufige Fehler und Probleme, die beim Einsatz von AI Agent in einer Produktionsumgebung auftreten können. Wie man die Kosten verwaltet und gleichzeitig die Leistung von AI Agent aufrechterhält. Lernziele Nach Abschluss dieses Kurses werden Sie wissen,...
Einleitung Willkommen zum Kurs über Metakognition in KI-Agenten! Dieses Kapitel richtet sich an Anfänger, die sich dafür interessieren, wie KI-Agenten über ihre eigenen Denkprozesse nachdenken. Am Ende dieses Kurses werden Sie die Schlüsselkonzepte verstehen und praktische Beispiele für die Anwendung von Metakognition bei der Entwicklung von KI-Agenten haben. Lernziele .....
Wenn Sie mit der Arbeit an einem Projekt beginnen, das mehrere Intelligenzen einbezieht, müssen Sie das Multi-Intelligence Design Pattern in Betracht ziehen. Es ist jedoch nicht immer klar, wann man auf Multi-Intelligenz umsteigen sollte und welche Vorteile dies mit sich bringt. Einführung In diesem Kurs versucht Microsoft, die folgenden Fragen zu beantworten: Welche Szenarien eignen sich für Multi-Intelligentsia? Welche Szenarien eignen sich für Multi-Intelligenz?