Google a franchi une étape importante en s’associant à NVIDIA, un géant dans le domaine du matériel d’intelligence artificielle, pour renforcer les capacités de ses modèles de langage Gemma. Cette collaboration devrait améliorer l’efficacité et la rapidité de ceux qui travaillent avec des applications d’intelligence artificielle, ce qui en fait un développement remarquable dans le monde de la technologie.
Les modèles d’IA Google Gemma ont été mis à jour et sont désormais disponibles en deux versions, l’une avec 2 milliards de paramètres et l’autre avec 7 milliards de paramètres. Ces modèles sont spécialement conçus pour tirer pleinement parti des plates-formes d’IA de pointe de NVIDIA. Cette mise à jour est bénéfique pour un large éventail d’utilisateurs, depuis ceux qui gèrent de grands centres de données jusqu’aux particuliers qui utilisent des ordinateurs personnels, car les modèles Gemma sont désormais optimisés pour fournir des performances de premier ordre.
Au cœur de cette amélioration se trouve TensorRT-LLM de NVIDIA, une bibliothèque open-source qui joue un rôle essentiel dans l’optimisation de l’inférence des grands modèles de langage sur les GPU NVIDIA. Cet outil est essentiel pour garantir que Gemma fonctionne à des performances optimales, offrant aux utilisateurs des interactions d’IA plus rapides et plus précises.
Google Gemma
L’une des principales améliorations est la compatibilité de Gemma avec un large éventail de matériel NVIDIA. Désormais, plus de 100 millions de GPU NVIDIA RTX dans le monde peuvent prendre en charge Gemma, ce qui accroît considérablement sa portée. Cela inclut les puissants GPU des centres de données, les instances A3 du cloud computing et les GPU NVIDIA RTX des ordinateurs personnels.
Dans le domaine du cloud computing, Google Cloud prévoit d’utiliser les GPU H200 Tensor Core de NVIDIA, qui disposent de capacités de mémoire avancées. Cette intégration devrait améliorer les performances des modèles Gemma, en particulier dans les applications basées sur le cloud, ce qui se traduira par des services d’IA plus rapides et plus fiables. Les contributions de NVIDIA ne se limitent pas au matériel ; la société fournit également une suite complète d’outils pour les développeurs d’entreprise. Ces outils sont conçus pour faciliter le réglage et le déploiement de Gemma dans divers environnements de production, ce qui simplifie le processus de développement des services d’IA, qu’ils soient complexes ou simples.
Pour ceux qui souhaitent personnaliser davantage leurs projets d’IA, NVIDIA offre un accès aux points de contrôle du modèle et à une version quantifiée de Gemma, tous optimisés avec TensorRT-LLM. Cela permet d’affiner encore plus les détails et d’améliorer l’efficacité des projets d’IA. Le NVIDIA AI Playground sert de plate-forme conviviale pour interagir directement avec les modèles Gemma. Cette plateforme est conçue pour être accessible, éliminant le besoin de processus de configuration complexes, et constitue une excellente ressource pour ceux qui souhaitent explorer rapidement ce que Gemma a à offrir.
Un élément intriguant de cette intégration est la combinaison de Gemma avec la démo technologique Chat with RTX de NVIDIA. Cette démo utilise les capacités d’IA générative de Gemma sur les PC équipés de RTX pour fournir une expérience de chatbot personnalisée. Il est rapide et préserve la confidentialité des données en fonctionnant localement, ce qui signifie qu’il ne dépend pas de la connectivité au nuage.
Dans l’ensemble, les modèles Gemma de Google ont fait un grand pas en avant grâce à l’optimisation pour les GPU NVIDIA. Ces progrès se traduisent par une amélioration des performances, une prise en charge étendue du matériel et des outils puissants pour les développeurs, faisant de Gemma un concurrent de taille pour les applications basées sur l’IA. Le partenariat entre Google et NVIDIA promet d’apporter une expérience d’IA robuste et accessible aux développeurs et aux utilisateurs finaux, marquant ainsi une étape importante dans l’évolution de la technologie de l’IA.
Lire plus Guide:
- La performance de l’assistant IA open source Google Gemma est lente et imprécise
- Les performances du modèle Google Gemma 27B AI testées
- Comparaison des performances et des résultats entre Mistral-7B et Google Gemma
- NVIDIA AI arrive sur Oracle Cloud Marketplace
- Mises à jour des modèles Google 1.5 Flash et Gemini 1.5 Pro AI et plus encore
- Supercalculateur d’IA de 65 ExaFLOP en cours de construction par AWS et NVIDIA