Google 最近推出了全新的多模態開源 AI 模型 Gemma 3n,這款模型的最大賣點在於它能夠在智能電話上僅需 2GB 記憶體即可本地運行,向開發者提供流暢的 AI 應用體驗。Gemma 3n 不僅支持文字輸入,還兼容聲音、圖像及影片資料處理,讓使用者得以在流動裝置上實現完整的多模態功能。
作為 Google Gemma 模型家族的一部分,Gemma 3n 的開發理念一貫強調開放性與自訂性,此次正式發布的 E4B 主模型和 E2B 子模型均可在 Hugging Face 及 Kaggle 平台上下載。這些模型的架構以 “MatFormer” 技術訓練,實現了如俄羅斯套娃般的結構,其中 E2B 作為 E4B 的精簡副本,能獨立執行。
專為流動平台設計的 E2B 模型擁有 5B 參數,並成功將記憶體使用量壓縮至僅 2GB,這一切得益於其創新的 “Per-Layer Embeddings(PLE)” 設計,顯著減輕了模型執行時的資料存取負擔,使得高記憶體需求的模型能夠在智能電話上順暢運行。
值得一提的是,Gemma 3n 的 E4B 模型擁有 8B 參數,實測顯示其運行時的記憶體消耗與傳統的 4B 模型相仿,僅需 3GB。性能方面,Gemma 3n E4B 更超越了 GPT 4.1-nano,也擊敗了體積更大的 Llama 4 Maverick 17B-128E 和 Phi-4 等模型。
目前,Gemma 3n 支持多個執行環境,包括 Hugging Face Transformers、llama.cpp、Google AI Edge、Ollama 和 MLX 等,使用者還可以透過 Pixel 8 Pro 等流動裝置安裝「Google AI Edge Gallery」應用進行本地運行。此外,用戶還能在 Google AI Studio 測試其聊天功能。
Google 透過 Gemma 3n 展現了 AI 模型不再受硬件限制的可能性,這開放下載和低記憶體要求的設計,或將推動智能電話及物聯網設備迅速導入多模態 AI 應用的未來。



