谷歌旗下DeepMind团队发布EmbeddingGemma,一款专为设备端AI设计的开源文本嵌入模型。该模型仅3.08亿参数,却在Massive Text Embedding Benchmark (MTEB)中成为500M参数以下的最佳开源多语种嵌入模型。
EmbeddingGemma基于Gemma 3架构,支持100多种语言,具备高效、低资源占用的特点。其量化后运行内存低于200MB,可在手机、笔记本、桌面端等日常设备上离线执行,应用于检索增强生成(RAG)、语义搜索、分类与聚类等场景。
该模型还引入Matryoshka Representation Learning技术,允许输出维度灵活调整(768至128),并在EdgeTPU上实现小于15毫秒的实时推理性能。谷歌表示,EmbeddingGemma可用于本地化检索个人文件、离线智能助手、移动端RAG流水线等隐私友好的应用场景,并已兼容sentence-transformers、llama.cpp、LangChain等流行工具。
EmbeddingGemma的模型权重已同步上线Hugging Face、Kaggle和Vertex AI,开发者可直接下载并集成使用。
来源:Google for Developers 官方博
Googleblog
Google for Developers Blog - News about Web, Mobile, AI and Cloud
Discover EmbeddingGemma, Google's new on-device embedding model designed for efficient on-device AI, enabling features like RAG and semantic search.
via LoopDNS资讯播报 - Telegram Channel