Gemma 3 est disponible en quatre variantes avec 1 milliard, 4 milliards, 12 milliards et 27 milliards de paramètres. Selon Google, il s'agit du meilleur modèle mono-vitesse au monde , capable de fonctionner sur un seul GPU ou TPU au lieu de nécessiter un grand cluster d'ordinateurs.

En théorie, cela permet à Gemma 3 de fonctionner directement sur l'unité de traitement Tensor (TPU) du téléphone Pixel, de la même manière que le modèle Gemini Nano fonctionne localement sur un appareil mobile.

Comparé à la famille de modèles d'IA Gemini, le principal avantage de Gemma 3 réside dans son caractère open source, qui permet aux développeurs de personnaliser, de packager et de déployer facilement à la demande des applications mobiles et des logiciels de bureau. De plus, Gemma prend en charge plus de 140 langues, dont 35 sont déjà disponibles sous forme de modules de formation.

ad13e24ffc15c60fc50aa51c6fff5038.jpeg
Comparaison des performances de Gemma 3 (version 27 milliards de paramètres) avec celles d'autres modèles d'IA. Photo : Google

Semblable aux derniers modèles Gemini 2.0, Gemma 3 est capable de traiter du texte, des images et des vidéos . En termes de performances, Gemma 3 est mieux noté que de nombreux autres modèles d'IA open source populaires, notamment DeepSeek V3, OpenAI o3-mini et la variante Llama-405B de Meta.

Contexte équivalent à 200 pages de livre

Gemma 3 prend en charge une fenêtre contextuelle pouvant atteindre 128 000 jetons, soit l'équivalent du volume de données d'un livre de 200 pages. À titre de comparaison, le modèle Gemini 2.0 Flash Lite dispose d'une fenêtre contextuelle pouvant atteindre 1 million de jetons.

79f4765176ea9c0652ae7c685e0c1e21.jpeg
Comparaison des performances de Gemma 3 (version 27 milliards de paramètres) avec celles d'autres modèles d'IA. Photo : Google

Gemma 3 peut interagir avec des ensembles de données externes et agir comme un agent automatisé, de la même manière que Gemini prend en charge de manière transparente le travail sur des plateformes telles que Gmail ou Docs.

Les derniers modèles d'IA open source de Google peuvent être déployés localement ou via les services cloud de l'entreprise, tels que Vertex AI. Gemma 3 est désormais disponible sur Google AI Studio, ainsi que sur des plateformes tierces comme Hugging Face, Ollama et Kaggle.

Le modèle open source de troisième génération de Google s'inscrit dans une tendance du secteur où les entreprises développent en parallèle des modèles de langage de grande taille (LLM) et des modèles de langage de petite taille (SLM). Microsoft, concurrent de Google, poursuit une stratégie similaire avec sa gamme Phi de modèles de langage de petite taille open source.

Les petits modèles de langage comme Gemma et Phi sont très appréciés pour leur efficacité en termes de ressources, ce qui les rend idéaux pour une utilisation sur des appareils comme les smartphones. De plus, leur faible latence les rend particulièrement adaptés aux applications mobiles.

Département de la Justice américain : Google doit « dire adieu » à son navigateur Chrome pour toujours Le géant de la recherche Google sera contraint de vendre le navigateur Chrome mais sera toujours autorisé à investir dans des startups d'intelligence artificielle.