Google a récemment lancé son tout nouveau modèle d’IA open-source multimodal, Gemma 3n. Le principal atout de ce modèle est qu’il peut fonctionner localement sur un smartphone avec seulement 2 Go de mémoire, offrant aux développeurs une expérience d’application IA fluide. Gemma 3n prend non seulement en charge l’entrée texte, mais est également compatible avec le traitement des données vocales, d’images et de vidéos, permettant aux utilisateurs de réaliser une fonctionnalité multimodale complète sur leurs appareils mobiles.
En tant que membre de la famille des modèles Google Gemma, la philosophie de développement de Gemma 3n met l’accent sur l’ouverture et la personnalisation. Les modèles principaux E4B et E2B, récemment publiés, sont désormais disponibles en téléchargement sur les plateformes Hugging Face et Kaggle. L’architecture de ces modèles est entraînée avec la technologie « MatFormer », réalisant une structure semblable à celle de poupées russes, où E2B agit comme une version allégée et autonome de E4B.
Conçu spécifiquement pour les plateformes mobiles, le modèle E2B possède 5B de paramètres et a réussi à réduire son utilisation mémoire à seulement 2GB. Tout cela grâce à son design innovant de « Per-Layer Embeddings (PLE) », qui allège considérablement la charge d’accès aux données durant l’exécution du modèle, permettant ainsi à des modèles à forte demande en mémoire de fonctionner en douceur sur des smartphones.
Il convient de noter que le modèle E4B de Gemma 3n possède 8 milliards de paramètres, et les tests montrent que sa consommation de mémoire pendant le fonctionnement est comparable à celle d’un modèle traditionnel de 4 milliards, nécessitant seulement 3 Go. En termes de performance, le Gemma 3n E4B surpasse le GPT 4.1-nano et bat également des modèles plus volumineux comme le Llama 4 Maverick 17B-128E et Phi-4.
Actuellement, Gemma 3n prend en charge plusieurs environnements d’exécution, y compris Hugging Face Transformers, llama.cpp, Google AI Edge, Ollama et MLX. Les utilisateurs peuvent également installer l’application Galerie Google AI Edge sur des appareils mobiles tels que le Pixel 8 Pro pour un fonctionnement local. De plus, les utilisateurs peuvent tester ses fonctionnalités de chat dans Google AI Studio.
Google a révélé, grâce à Gemma 3n, que les modèles d’IA ne sont plus limités par le matériel. Avec une conception ouverte au téléchargement et des exigences mémoire minimales, cela pourrait propulser l’adhésion rapide des smartphones et des dispositifs IoT à l’avenir des applications d’IA multimodales.



