さて、この時点でマークダウン・ファイルは1000行を超えた。これはほとんどお遊びだ。
もしあなたがhumanlayerの紹介を待ち望んでいたのなら、これがそれだ。もしあなたが要素6「シンプルなAPIを介した開始/一時停止/再開」と要素7「ツールコールを介した人間とのコンタクト」を実践しているなら、この要素を統合する準備はできています。 ユーザーがAPIから開始/一時停止/再開できるようにする。
何でもこなそうとする一枚岩のインテリジェンスを構築するのではなく、一つのことをうまくこなせる、小さく集中したインテリジェンスを構築する方がいい。インテリジェンスは、より大きな、大部分は決定論的なシステムにおける1つの構成要素にすぎない。 ここでの重要な洞察は、大きな言語モデルの限界である。
これは些細な点だが、言及する価値がある。エージェントの利点の一つは "自己修復 "です。短いタスクの場合、大規模な言語モデル(LLM)は失敗したツールを呼び出すかもしれません。優れたLLMは、エラーメッセージやスタックトレースを読み取ることができる可能性が高い。
自分のコントロール・フローをコントロールできれば、多くの興味深い機能を実装できる。 特定のユースケースに適合するカスタム制御構造を構築する。具体的には、ある種のツール・コールは、ループから飛び出したり、人間が応答するのを待ったり、別の長時間実行タスク(例えばトレーニング・パイプライン)を待ったりする理由になるかもしれない...。
デフォルトでは、ラージ・ランゲージ・モデル(LLM)APIは、基本的にステークスの高いトークンの選択に依存している:プレーン・テキストのコンテンツを返すのか、それとも構造化データを返すのか? あなたは最初のトークンの選択に重きを置いていますが、それは東京の天気の場合...
インテリジェンスはプログラムであり、何らかの方法で起動、クエリ、再開、停止できることが期待される。 ユーザー、アプリケーション、パイプライン、その他のインテリジェンスは、シンプルなAPIで簡単にインテリジェンスを開始できるはずだ。 長時間実行されるオペレーションが必要な場合、インテリジェンスとそのオーケストレーションの決定論的コード...
AIの分野以外でも、多くのインフラシステムは「実行状態」と「ビジネスの状態」を分離しようとしている。AIアプリケーションの場合、これは現在のステップ、次のステップ、待機状態、再試行などの情報を追跡するための複雑な抽象化を伴うことがある。この分離は複雑さをもたらし、価値があるかもしれないが、...
ツールは複雑である必要はない。ツールの核心は、ラージ・ランゲージ・モデル(LLM)からの構造化された出力が、決定論的なコードをトリガーするために使用されることだ。 例えば、CreateIssueとSearchIssueの2つのツールがあるとします。ラージ・ランゲージ・モデル(LLM)に「複数のツールのうちの1つを使用する」ように要求することは、実際には...を出力するように要求することです。
ビッグ・ランゲージ・モデルにコンテキストを伝えるのに、標準化されたメッセージベースのフォーマットを使う必要はない。 どんな瞬間でも、AIインテリジェンスの大きな言語モデルへの入力は、「これまでに起こったことすべてと、次にすべきことはこれです」というものだ。 大きな言語モデルは...
入力プロンプトのエンジニアリングをフレームワークにアウトソーシングしてはいけません。 ちなみに、これは斬新なアドバイスとは言い難い。いくつかのフレームワークは、次のような「ブラックボックス」的なアプローチを提供している:agent = Agent( role="..." , goal="...")ゴール="..."パーソナリティ="..."ツール=...
インテリジェンスを構築する際の最も一般的なパターンの1つは、自然言語を構造化されたツール呼び出しに変換することである。これは、タスクを推論して実行できるインテリジェンスを構築できる強力なパターンです。 このパターンをアトミックに適用すると、Ter...
詳細版:ここまでの経緯 私の話を聞く必要はない インテリジェンスに初めて触れる人も、私のような不機嫌なベテランも、AIインテリジェンスに関する既存の見解のほとんどを捨て、一歩引いて、第一原理から考え直すよう説得しようと思う。 (...として
包括的な紹介 "12-Factor Agents "は、特定のソフトウェア・ライブラリやフレームワークではなく、信頼性が高く、スケーラブルで、メンテナンスが容易なLLM(大規模言語モデル)アプリケーションを構築するための設計原則のセットである。このプロジェクトは、開発者のDexによって始められた。Dexは、多くのチームが既存のAIを賢 ... 続きを読む
FineTuningLLMs は、著者の dvgodoy さんの著書 A Hands-On Guide to Fine-Tuning LLMs with PyTorch and Hugging Face に基づいて作成された GitHub リポジトリです。このリポジトリは...
大規模言語モデリング(LLM)技術は急速に変化しており、オープンソースコミュニティは貴重な学習リソースを豊富に生み出している。これらのプロジェクトは、LLMを体系的にマスターしたい開発者にとってプラクティスの宝庫だ。この記事では、GitHubで広く評価されている9つのトップ・オープンソース・プロジェクトを詳しく見ていこう。
はじめに このコースでは、本番環境への AI Agent の導入を効果的に計画する方法について説明します。 AI Agentを本番環境にデプロイする際に遭遇する可能性のある一般的な間違いや問題。 AI Agentのパフォーマンスを維持しながらコストを管理する方法 学習目標 このコースを修了すると、次のことがわかるようになります。
はじめに AIエージェントにおけるメタ認知のコースへようこそ!この章は、AIエージェントが自身の思考プロセスについてどのように考えるかに興味のある初心者のために設計されています。このコースの終わりには、主要な概念を理解し、AIエージェントの設計にメタ認知を適用するための実践的な例を持つようになります。 学習目標
複数の知能が関わるプロジェクトに着手する際には、マルチ・インテリジェンス・デザイン・パターンを検討する必要がある。しかし、いつマルチインテリジェンスに移行すればよいのか、どのような利点があるのか、明らかではないかもしれません。 はじめに このコースでは、マイクロソフトが次の質問に答えることを試みます。 どのようなシナリオがマルチインテリジェンスに適しているか?