AIClient-2-APIは、開発者のための軽量なAPIプロキシツールである。複数のAIクライアントの承認およびリクエストプロセスをシミュレートする。このプロジェクトは、GoogleのGemini CLI、AliのQwen Code Plus、Kiroのクライアントサイド組み込みClaudeモデルなど、元々クライアントサイドでの使用に限定されていた大規模モデルサービスを、技術的な手段によってOpenAI APIフォーマットと互換性のあるローカルインターフェースに統合する。このカプセル化の目的は、統一されたアクセスポイントを提供することである。つまり、開発者は、もともとOpenAIインターフェースに依存していた様々なアプリケーションやツール(LobeChat、NextChatなど)を直接AIClient-2-APIにドッキングすることができます。これによって開発者は、複雑なコードの適応を必要とすることなく、舞台裏でサポートされている多くの異なるビッグモデルをシームレスに使用することができます。プロジェクトはNode.jsを使用して構築され、迅速なデプロイのためにDockerをサポートし、サービスの安定性と使用の柔軟性を向上させるために、アカウントプール管理、フェイルオーバー、ロギングなどの高度な機能を提供します。
機能一覧
- クライアントの承認とリクエストのシミュレーションGemini CLI、KiroなどのクライアントのOAuth認証プロセスとリクエストフォーマットをシミュレートすることで、公式APIの制限を突破し、その背後にあるモデルサービスを呼び出すことができます。
- 統一APIインターフェース複数のモデルを単一のインターフェースから呼び出すという目的を達成するために、サポートされているすべてのモデルを標準のOpenAI APIフォーマットにカプセル化します。
- OpenAIのエコシステムと互換性があるOpenAI APIをサポートするクライアントやツールチェーンは、このプロジェクトが提供するインターフェースのアドレスを直接使用することで、ゼロコストでアクセスすることができます。
- 利用制限を突破するクライアント側の認可をシミュレートすることで、公式の無料APIよりも高いリクエストクォータと使用頻度を得ることができます。
- フリーモデルの活用クライアントAPIをエミュレートすることで、Kiroの内蔵クロード・ソネット4モデルへの無料通話をサポート。
- アカウント・プール管理サービスの安定性を向上させるため、リクエストの自動ポーリング、フェイルオーバー、コンフィギュレーションの劣化を可能にします。
- モニタリングと監査の依頼:: デバッグ、監査、またはプライベートデータセットの構築のために、エージェントを介したすべてのリクエストとレスポンスの内容を記録するロギング機能を内蔵しています。
- ダイナミックなキュー・ワード管理クライアント側のプロンプトを強制的にオーバーライドさせたり、プロンプトの末尾に内容を追加したりすることで、ユーザーが設定ファイルを通じてシステムプロンプトの動作を柔軟に制御できるようにする。
- 拡張が容易このプロジェクトはモジュール設計になっており、開発者が新しいモデル・サービス・プロバイダーを追加するための、明確でシンプルな実装経路を提供する。
- コンテナ展開Dockerの完全なサポートにより、Dockerイメージを通じてランタイム環境を迅速にデプロイし、分離することができます。
ヘルプの使用
AIClient-2-APIプロジェクトは、統一されたインターフェースを介して異なるビッグモデルを呼び出すことにより、開発プロセスを簡素化することを目的としています。以下は詳細なインストールと使い方の説明です。
環境準備
作業を始める前に、以下のソフトウェアがコンピュータにインストールされていることを確認してください:
- Node.jsこのプロジェクトはNode.jsで動いています。
- ギットGitHubからプロジェクトのコードをクローンする。
- Docker(推奨)Dockerは必須ではないが、環境設定や依存関係の管理が簡単になるため、デプロイメントには公式に推奨されている。
インストールとスタートアップ
方法1:Dockerでデプロイする(推奨)
Dockerは、クリーンで分離された実行環境を提供する、公式に推奨されているデプロイ方法だ。
- Dockerイメージのプル:
ターミナル(WindowsではCMDまたはPowerShell、macOSまたはLinuxではTerminal)を開き、以下のコマンドを実行してDocker Hubから最新のイメージを取り出します:docker pull justlovemaki/aiclient-2-api:latest
- 実行中のコンテナ:
以下のコマンドを実行してコンテナを起動する。このコマンドはコンテナの3000
ポートマッピング3000
港。docker run -d -p 3000:3000 --name aiclient2api justlovemaki/aiclient-2-api:latest
これを行うには
-p
パラメーターを使って、ローカル・マシンにマッピングされたポート番号を変更する。-p 8080:3000
はポート8080でローカルにサービスを展開する。
方法2:ダウンロードして手動で実行する
Dockerを使いたくない場合は、コンピューター上で直接実行することもできる。
- コードベースのクローン:
ターミナルを開き、プロジェクトを保存したいフォルダに移動し、以下のコマンドを実行する:git clone https://github.com/justlovemaki/AIClient-2-API.git
- プロジェクト・ディレクトリに移動する:
cd AIClient-2-API
- 依存関係のインストール:
利用するnpm
Package Managerはプロジェクトに必要な依存ライブラリをインストールします。npm install
- サービス開始:
インストールが完了したら、以下のコマンドを実行してサービスを開始する。node src/api-server.js
デフォルトでは、サービスは
localhost
な3000
港。
コアの構成と使い方
サービスを開始したら、AIクライアント・アプリケーションに設定する必要があります。
- インターフェースアドレスの取得:
- Dockerまたはローカルで直接実行しており、ポートを変更していない場合、APIインターフェースのアドレスは以下のようになる:
http://localhost:3000
. - サービスを別のサーバーにデプロイする場合は、以下のように設定します。
localhost
サーバーのIPアドレスに置き換える。
- Dockerまたはローカルで直接実行しており、ポートを変更していない場合、APIインターフェースのアドレスは以下のようになる:
- クライアントの設定:
打开你常用的AI客户端(如LobeChat, ネクストチャット, AMA, GPT-S等),找到设置API接口地址的地方。通常这个设置项被称为API Endpoint
そしてBase URL
もしかしたらAPI基地址
.- インターフェース・アドレスを
http://localhost:3000
. - APIキー・フィールドに、起動パラメータで設定したキーを入力する。
123456
. - 設定を保存すると、クライアントからのすべてのリクエストはAIClient-2-APIプロキシサービスに送られます。
- インターフェース・アドレスを
- モデルの切り替えと使い分け:
AIClient-2-APIは、異なるパスを通して適切なモデルサービスを呼び出します。例- キロ認証のクロード・モデルを呼び出す。
http://localhost:3000/claude-kiro-oauth
- ジェミニ・モデルを呼ぶ
http://localhost:3000/gemini-cli-oauth
- OpenAI互換のカスタムモデルを呼び出す。
http://localhost:3000/openai-custom
クライアントで直接モデルを選択するか、パス切り替えをサポートするツールで完全なURLを指定することができます。
- キロ認証のクロード・モデルを呼び出す。
ライセンスファイルの設定(クライアントをシミュレートするための重要なステップ)
Gemini、Kiro、QwenなどのOAuth認証が必要なモデルを使用するには、まず適切な認証ファイルを取得する必要があります。これはプロジェクトアナログクライアント機能実現の鍵。
- 認可書類の取得:
- ジェミニ公式のGemini CLIツールを実行し、最初に認証する必要があります。認証後、Gemini CLIはユーザーのホームディレクトリの
~/.gemini/
フォルダ世代oauth_creds.json
ドキュメンテーション - キロクライアントをダウンロードし、ログインして認証する必要があります。
~/.aws/sso/cache/
カタログ作成kiro-auth-token.json
ドキュメンテーション - クウェンブラウザーは使用時に自動的に認証のために開き、認証が終わると
~/.qwen/
カタログ作成oauth_creds.json
ドキュメンテーション
- ジェミニ公式のGemini CLIツールを実行し、最初に認証する必要があります。認証後、Gemini CLIはユーザーのホームディレクトリの
- 代理店へのサービス提供:
認証ファイルを取得したら、プロキシサービスに認証ファイルの場所を教える必要があります。認証ファイルへのパスはプロジェクトのスタートアップパラメータで指定することができます:node src/api-server.js --model-provider gemini-cli-oauth --gemini-oauth-creds-file /path/to/your/oauth_creds.json
プロキシ設定
GoogleやOpenAIなどのサービスに直接アクセスできない環境では、エンドポイントにHTTPプロキシを設定する必要がある。
- Linux / macOS:
export HTTP_PROXY="http://your_proxy_address:port"
- ウィンドウズ(CMD):
set HTTP_PROXY=http://your_proxy_address:port
HTTPプロキシのみを設定し、HTTPSプロキシは設定しないことに注意してください。
アプリケーションシナリオ
- 統合開発環境(UDE)
AIClient-2-APIは、複数のモデルをテスト、比較、選択する必要がある開発者に完璧なソリューションを提供します。Simulated Requests "と "Unified Interface "により、開発者はモデルごとに独立したAPI呼び出しコード一式を維持する必要がなく、すべてのリクエストをローカルプロキシに向けるだけで、簡単なパラメータ切り替えによって異なるバックエンドモデルを呼び出すことができます。これにより、開発とデバッグのプロセスが大幅に簡素化されます。 - 既存アプリケーションの有効化
すでにOpenAI APIで構築されたアプリケーションを持っているが、より多様なモデルを取り込みたい場合(例えば、Geminiの無料クレジットやClaudeのテキスト処理機能を利用したい場合)、AIClient-2-APIはミドルレイヤーとしてシームレスにアクセスすることができます。既存のアプリケーションで多くのコードを修正することなく、APIリクエストアドレスをこのプロキシに向けるだけで、サポートされているすべてのモデルをすぐに使うことができる。 - 個人的な学習と研究
AI愛好家や研究者にとって、公式APIの高額なコストや呼び出し制限は障壁となっている。このプロジェクトは、例えばクライアント側のライセンス供与をシミュレートしたり、Geminiのようなモデルの無料通話クレジットを利用できるようにしたり、Kiroに内蔵された無料のクロード・モデルを使用できるようにしたりすることで、個人が学習したり小規模な実験を行ったりするための低コストのプラットフォームを提供する。 - 監査可能なAIアプリケーションの構築
プロジェクトの強力なロギング機能は、エージェントを通過するすべてのリクエスト(プロンプト)とモデルレスポンスの完全な記録を可能にします。これは、コンテンツ監査、データ分析、または行動監視が必要なシナリオにとって重要です。組織は、AIアプリケーションが内部仕様に従って使用されていることを確認するため、またはその後のモデルの微調整と最適化のためのデータを収集するために、この機能を使用することができます。
品質保証
- このプロジェクトは安全ですか?私のライセンスファイルやキーが危険にさらされることはありませんか?
AIClient-2-APIは、ローカルで動作するプロキシサーバーであり、データやキーを収集したりアップロードしたりしません。 しかし、安全でないネットワーク環境での使用を避けるために、認証ファイルと起動パラメータに設定されたAPIキーを安全に保つ必要があります。 - GoogleやOpenAIのサービスにアクセスできないのはなぜですか?
サーバーやローカル環境がこれらのサービスに直接アクセスできない地域にある場合、このプロジェクトを実行する端末でHTTPプロキシを設定する必要があります。詳しくはドキュメントの「プロキシ設定」を参照してください。 - ジェミニのCLIモードを使用すると、1日に無制限に通話ができるということですか?
このプロジェクトは、Gemini CLIの認可をエミュレートすることで、通常の無料APIの公式レート制限を回避し、より高いリクエスト量を得ているが、制限が全くないわけではない。CLIツールの公式な使用には一定の頻度と用量監視があり、過度の乱用は依然としてアカウント制限につながる可能性がある。 - 事前にエミュレートされたクライアントソフトウェアをインストールする必要がありますか?
完全なクライアント・ソフトウェアをインストールする必要はありませんが、次のことが必要です。これらのクライアント・ソフトウェアの認証プロセスを一度実行する。を使用して、ローカルで生成された OAuth 認証ファイル (たとえばoauth_creds.json
もしかしたらkiro-auth-token.json
これらのファイルを読むことによって、AIClient-2-APIはシミュレートされたクライアントの認証ステップを完了する。 - このプログラムに料金はかかりますか?
AIClient-2-APIプロジェクト自体は、GPLv3オープンソースライセンスに従ったオープンソースかつフリーである。 APIプロキシツールに過ぎず、AIモデルサービスを提供するものではありません。 バックエンドモデルを呼び出すことによって発生するコストは(もしそれが無料額を超える場合)、対応するサードパーティサービスプロバイダーによって請求される必要があります。