قدمت Google مؤخرًا نموذجها الجديد مفتوح المصدر المتعدد الأبعاد AI المعروف باسم Gemma 3n، والذي يتميز بقدرته على العمل محليًا على الهواتف الذكية بذاكرة 2GB فقط، مما يوفر للمطورين تجربة تطبيقات الذكاء الاصطناعي بسلاسة. لا يدعم Gemma 3n الإدخال النصي فحسب، بل يتوافق أيضًا مع معالجة البيانات الصوتية والصور ومقاطع الفيديو، مما يتيح للمستخدمين تجربة وظيفية كاملة متعددة الأبعاد على أجهزتهم المحمولة.
كجزء من عائلة نماذج Google Gemma، تركز فلسفة تطوير Gemma 3n بشكل متسق على الانفتاح والقدرة على التخصيص. تم إصدار النموذج الرئيسي E4B ونموذج E2B الفرعي رسميًا، ويمكن تحميلهما على منصات Hugging Face وKaggle. تتميز هياكل هذه النماذج بأنها مدربة بتقنية “MatFormer”، مما يحقق بنية تشبه الدمى الروسية، حيث يعد E2B نسخة مختصرة من E4B، ويمكنه التنفيذ بشكل مستقل.
نموذج E2B المصمم خصيصًا للمنصات المتنقلة يحتوي على 5B من المعلمات، وقد نجح في تقليص استهلاك الذاكرة إلى 2GB فقط، وذلك بفضل تصميمه المبتكر المعروف باسم “Per-Layer Embeddings (PLE)”, مما خفف بشكل كبير من عبء الوصول إلى البيانات أثناء تشغيل النموذج، مما يجعل النماذج ذات المتطلبات العالية للذاكرة تعمل بسلاسة على الهواتف الذكية.
من الجدير بالذكر أن نموذج E4B من Gemma 3n يحتوي على 8 مليار معلمة، وقد أظهرت القياسات الفعلية أن استهلاك الذاكرة أثناء تشغيله مشابه لنموذج 4 مليار التقليدي، حيث يحتاج فقط إلى 3 جيجابايت. من حيث الأداء، يحقق نموذج Gemma 3n E4B تفوقًا على GPT 4.1-nano، كما أنه يتفوق أيضًا على نماذج أكبر مثل Llama 4 Maverick 17B-128E و Phi-4.
حاليًا، تدعم Gemma 3n بيئات تنفيذ متعددة، بما في ذلك Hugging Face Transformers وllama.cpp وGoogle AI Edge وOllama وMLX، كما يمكن للمستخدمين تثبيت تطبيق معرض Google AI Edge على أجهزة الجوال مثل Pixel 8 Pro لتشغيله محليًا. بالإضافة إلى ذلك، يمكن للمستخدمين اختبار ميزات الدردشة الخاصة بها في Google AI Studio.
تظهر Google من خلال Gemma 3n إمكانية عدم تأثر نماذج الذكاء الاصطناعي بالقيود المفروضة على الأجهزة. إن تصميمها القابل للتنزيل والذي يتطلب ذاكرة منخفضة قد يساهم في دفع الهواتف الذكية وأجهزة إنترنت الأشياء نحو إدخال سريع لتطبيقات الذكاء الاصطناعي المتعددة النماذج في المستقبل.



