أطلقت Google مؤخرًا نموذج AI مفتوح المصدر متعدد الوسائط الجديد Gemma 3n، والذي يتميز بقدرته على العمل محليًا على الهواتف الذكية باستخدام 2 جيجابايت فقط من الذاكرة، مما يوفر تجربة تطبيقات AI سلسة للمطورين. لا يدعم Gemma 3n إدخال النصوص فحسب، بل يتوافق أيضًا مع معالجة البيانات الصوتية، والصورية، والفيديو، مما يمكّن المستخدمين من الاستفادة الكاملة من الميزات متعددة الوسائط على الأجهزة المحمولة.
كجزء من عائلة نماذج Google Gemma، تركز فلسفة تطوير Gemma 3n على الانفتاح والقابلية للتخصيص. النسخة الرسمية من النموذج الرئيسي E4B ونموذج E2B الفرعي متاحة للتنزيل على منصات Hugging Face وKaggle. تم تدريب هياكل هذه النماذج باستخدام تقنية “MatFormer”، مما يحقق بنية تشبه الدمى الروسية، حيث يُعتبر E2B نسخة مختصرة من E4B ويمكنه العمل بشكل مستقل.
تم تصميم نموذج E2B خصيصًا للمنصات المتنقلة ويحتوي على 5B من المعلمات، وقد نجح في تقليل استهلاك الذاكرة إلى 2GB فقط، وذلك بفضل تصميمه المبتكر المعروف باسم “Per-Layer Embeddings (PLE)”، مما خفف بشكل ملحوظ من عبء الوصول إلى البيانات أثناء تنفيذ النموذج، مما يسمح للنماذج ذات المتطلبات العالية للذاكرة بالعمل بسلاسة على الهواتف الذكية.
من الجدير بالذكر أن نموذج E4B من Gemma 3n يحتوي على 8 مليار معلمة، وتظهر الاختبارات أن استهلاكه لذاكرة التشغيل مشابه للنموذج التقليدي الذي يحوي 4 مليار معلمة، حيث يحتاج فقط إلى 3 جيجابايت. أما بالنسبة للأداء، فإن Gemma 3n E4B يتفوق على GPT 4.1-nano، ويتغلب أيضاً على نماذج أكبر حجماً مثل Llama 4 Maverick 17B-128E و Phi-4.
حالياً، يدعم Gemma 3n بيئات تنفيذ متعددة، بما في ذلك Hugging Face Transformers، llama.cpp، Google AI Edge، Ollama و MLX. يمكن للمستخدمين أيضاً تثبيت تطبيق معرض جوجل للذكاء الاصطناعي على الحافة على أجهزة الهواتف المحمولة مثل Pixel 8 Pro لتشغيله محلياً. بالإضافة إلى ذلك، يمكن للمستخدمين اختبار ميزات الدردشة في Google AI Studio.
أظهرت Google من خلال Gemma 3n إمكانية عدم تقييد نماذج الذكاء الاصطناعي بمحددات الأجهزة، وهذا التصميم الذي يتسم بإمكانية التحميل المفتوح واحتياجات الذاكرة المنخفضة قد يدفع بسرعة نحو إدخال تطبيقات الذكاء الاصطناعي متعددة الأنماط في الهواتف الذكية وأجهزة إنترنت الأشياء في المستقبل.



