Google
先日、同社初の Gemini Embedding
テキスト・モデリングgemini-embedding-001
) 採用 Gemini API
歌で応える Vertex AI
が正式に開発者に開放された。2025年3月に試験的に発表されて以来、このモデルは MTEB
(Massive Text Embedding Benchmark)の多言語リーダーボードに選出され、クロスドメインでミッションクリティカルなタスクにおいて優れたパフォーマンスを発揮していることが示されました。
MTEBパフォーマンス・ベンチマークの意義
MTEB
は、情報検索からテキスト分類まで、次元の異なる幅広いタスクをカバーするテキスト埋め込みモデルの包括的な能力を示す権威あるベンチマークである。gemini-embedding-001
このベンチマークにおける持続的なリーダーシップは、このモデルが特定のシナリオにおいて優れているだけでなく、科学、法律、金融、プログラミングなどの多様な領域にわたって統一された強固な意味表現を持っていることを意味する。によると Google
発表されたレポートgemini-embedding-001
その性能は、自社の旧モデルを凌ぐだけでなく、市場に出回っている他の市販モデルをいくつかの次元で凌駕している。
コア技術:マトリョーシカとコストの柔軟性
このモデルの核となるテクニックは Matryoshka Representation Learning
(MRL)を使用しています。この手法により、開発者は実際のニーズに応じて、埋め込みベクトルの出力次元を柔軟に縮小することができます(デフォルトの次元は3072)。
このデザインは、開発者にとって非常に使いやすいものです。金融文書や法的文書の正確な照合など、最高の精度が要求されるシナリオでは、3072ディメンジョンをフルに使用することができます。コストやストレージを重視するアプリケーションでは、1536または768、あるいはそれ以下の寸法に縮小することができ、性能と運用コストの最適なバランスを見つけることができます。この柔軟性と、100を超える言語のサポート、最大2048トークンの入力制限を組み合わせることで、非常に汎用性の高いモデルとなっています。
デベロッパーのエコロジーと価格戦略
Google
開発者にアクセスへの明確な道筋と競争力のある価格を提供する。gemini-embedding-001
価格は100万インプットあたり token
0.15であり、開発者による実験やプロトタイピングを容易にするために、無料の使用クレジットを提供している。
開発者は Gemini API
モデルを呼び出し、既存の embed_content
エンドポイントとの互換性。
from google import genai
client = genai.Client()
result = client.models.embed_content(
model="gemini-embedding-001",
contents="What is the meaning of life?"
)
print(result.embeddings)
同時に。Google
は旧モデルの移行計画も発表している。embedding-001
は2025年8月14日をもってサポート終了となる。 text-embedding-004
2026年1月14日に放棄予定。Google
開発者は、プロジェクトを最新の gemini-embedding-001
モデル
この動きは、単に技術的な反復であるだけではない。 Google
AIエコシステムを統合する重要な一歩となる。強固で柔軟性があり、コストを抑えたエンベデッド・モデルは、ハイレベルなAIエコシステムを構築する鍵である。 RAG
(Retrieval-Augmented Generation)などのアプリケーションを開発することができる。このような基本的なツールを開発者に提供することでGoogle
はAIインフラ分野での競争力を強化している。さらにGoogle
また、プレビューされ、サポートされようとしている Batch API
これにより、大規模アプリケーションの敷居がさらに低くなる。