Google
近日宣布,其首个 Gemini Embedding
文本模型 (gemini-embedding-001
) 已通过 Gemini API
和 Vertex AI
正式向开发者开放。自2025年3月实验性推出以来,该模型一直在 MTEB
(Massive Text Embedding Benchmark) 多语言排行榜上占据领先地位,这标志着它在跨领域的关键任务中具备卓越的性能。
MTEB 性能基准的意义
MTEB
是一个衡量文本嵌入模型综合能力的权威基准,它涵盖了从信息检索到文本分类等多种不同维度的任务。gemini-embedding-001
在此基准测试中的持续领先,意味着该模型并非只在特定场景下表现优异,而是在科学、法律、金融和编程等多样化领域都具备统一且强大的语义表示能力。根据 Google
发布的报告,gemini-embedding-001
的性能不仅超越了其自家的旧版模型,也在多个维度上优于市面上的其他商业化模型。
核心技术:Matryoshka 与成本灵活性
该模型的一个核心技术是 Matryoshka Representation Learning
(MRL)。这项技术允许开发者根据实际需求,灵活地缩减嵌入向量的输出维度,默认维度为 3072。
这种设计对开发者极为友好。在需要最高精度的场景(如金融或法律文档的精确匹配)下,可以使用完整的 3072 维度。而在对成本和存储更敏感的应用中,可以将其缩减至 1536 或 768 甚至更低的维度,从而在性能和运营成本之间找到最佳平衡点。这种灵活性,加上对超过100种语言的支持和长达2048个token的输入上限,使其成为一个高度通用的模型。
开发者生态与定价策略
Google
为开发者提供了清晰的接入路径和颇具竞争力的定价。gemini-embedding-001
的价格为每100万输入 token
0.15美元,并提供免费使用额度,方便开发者进行实验和原型开发。
开发者可以通过 Gemini API
调用该模型,且它与现有的 embed_content
端点兼容。
from google import genai
client = genai.Client()
result = client.models.embed_content(
model="gemini-embedding-001",
contents="What is the meaning of life?"
)
print(result.embeddings)
与此同时,Google
也公布了旧模型的迁移计划,embedding-001
将于2025年8月14日停止支持,而 text-embedding-004
将于2026年1月14日弃用。Google
明确建议开发者尽早将项目迁移到最新的 gemini-embedding-001
模型上。
此举不仅是技术上的迭代,更是 Google
巩固其 AI 生态系统的重要一步。一个强大、灵活且成本可控的嵌入模型是构建高级别 RAG
(Retrieval-Augmented Generation) 等应用的基础。通过为开发者提供这样一个基础工具,Google
正在增强其在人工智能基础设施领域的竞争力。此外,Google
还预告,即将支持 Batch API
,以更低的成本异步处理数据,这将进一步降低大规模应用的门槛。