谷歌Gemini Embedding 2重磅发布!首款全多模态嵌入模型来了

谷歌于2026年3月10日前后正式推出Gemini Embedding2,这是其首款基于Gemini架构的完全多模态嵌入模型。目前已在Gemini API和Vertex AI上开放Public Preview,开发者可立即调用体验。

统一嵌入空间,打破模态壁垒  

Gemini Embedding2的核心创新在于,将文本、图片、视频、音频和文档(PDF)等多种数据类型映射到同一个统一的嵌入向量空间中。这一设计彻底实现了跨模态检索与分类,支持超过100种语言,真正让不同模态数据“说同一种语言”。

混合输入能力,精准捕捉语义关联  

模型原生支持混合模态输入,例如同时传入图片+文字、视频+音频等复杂组合。系统能够深度理解不同媒体之间的语义关联,而非简单并列处理,为多媒体内容理解带来质的飞跃。

音频原生处理,无需ASR转录  

另一大突破是音频直接嵌入功能。用户可直接输入原始音频文件,模型无需先进行语音转文本(ASR),即可输出高质量嵌入向量。这不仅大幅简化了多模态数据处理流程,还显著降低了延迟和计算成本。

多场景落地,RAG迎来新纪元  

凭借统一架构和强大跨模态能力,Gemini Embedding2可广泛应用于RAG检索增强生成、语义搜索、情感分析、内容聚类、法律证据检索等场景。AIbase编辑认为,这一模型的发布将显著降低企业构建多模态AI应用的门槛,推动AI从“文本时代”全面迈向“全感知时代”。

via AI新闻资讯 (author: AI Base)
 
 
Back to Top
Copyright © 2025 BESTAI. All rights reserved.
BEST AI API中转 - OpenAI DeepSeek Claude Gemini Grok MidJourney API 2.8折起
[email protected]