Google vient de lancer un tout nouveau modèle d’IA open source multimodal, le Gemma 3n. Son principal atout ? Il peut fonctionner localement sur un smartphone avec seulement 2 Go de mémoire, offrant ainsi une expérience d’application IA fluide pour les développeurs. Le Gemma 3n prend non seulement en charge la saisie textuelle, mais il est également compatible avec le traitement de données vocales, d’images et de vidéos, permettant aux utilisateurs de profiter de fonctionnalités multimodales complètes sur leurs dispositifs mobiles.
En tant que membre de la famille de modèles Google Gemma, le développement de Gemma 3n met l’accent sur l’ouverture et la personnalisation. Les modèles principaux E4B et le modèle secondaire E2B, qui viennent d’être lancés, sont disponibles en téléchargement sur les plateformes Hugging Face et Kaggle. La structure de ces modèles a été entraînée grâce à la technologie “MatFormer”, réalisant une architecture semblable à celle des poupées russes, où E2B agit comme une copie simplifiée d’E4B, capable de fonctionner de manière autonome.
Le modèle E2B, spécialement conçu pour les plateformes mobiles, possède 5B de paramètres et a réussi à réduire l’utilisation de la mémoire à seulement 2 Go. Tout cela est possible grâce à son design innovant appelé « Per-Layer Embeddings (PLE) », qui allège considérablement la charge d’accès aux données lors de l’exécution du modèle, permettant ainsi aux modèles ayant de fortes exigences en mémoire de fonctionner de manière fluide sur les smartphones.
Il convient de noter que le modèle E4B de Gemma 3n possède 8 milliards de paramètres et les tests montrent que sa consommation de mémoire pendant l’exécution est comparable à celle des modèles traditionnels de 4 milliards de paramètres, nécessitant seulement 3 Go. En termes de performance, le Gemma 3n E4B va même au-delà du GPT 4.1-nano et surpasse d’autres modèles plus volumineux tels que le Llama 4 Maverick 17B-128E et le Phi-4.
Actuellement, Gemma 3n prend en charge plusieurs environnements d’exécution, y compris Hugging Face Transformers, llama.cpp, Google AI Edge, Ollama et MLX. Les utilisateurs peuvent également installer l’application Galerie Edge de Google AI sur des appareils mobiles comme le Pixel 8 Pro pour un fonctionnement local. De plus, les utilisateurs peuvent tester ses fonctionnalités de chat sur Google AI Studio.
Google a démontré à travers Gemma 3n que les modèles d’IA ne sont plus limités par le matériel. Ce design, qui est à la fois accessible en téléchargement et demande peu de mémoire, pourrait propulser l’intégration rapide des applications d’IA multimodale dans les smartphones et les dispositifs IoT.



