Google Cloud et Nvidia présentent leurs projets communs en matière dans le domaine de de l’intelligence artificielle

La domination de Nvidia sur le marché de l’intelligence artificielle pourrait être remise en question dans les années à venir, et l’un de ces défis pourrait être Google, car l’entreprise continue de développer des processeurs personnalisés pour Google Cloud. Cela aurait pu rendre les choses un peu bizarres cette semaine lorsque les PDG de Nvidia et de Google Cloud se sont rencontrés sur scène lors de l’événement Google Cloud Next, mais aucune tension n’était évidente, et en fait, les dirigeants se sont réunis pour annoncer une expansion de leur partenariat en cours avec l’IA générative à l’esprit, ainsi que d’autres discussions sur la façon dont ils ont déjà commencé à approfondir leur collaboration.

Lors de l’événement, après avoir été appelé sur scène par Thomas Kurian, PDG de Google Cloud, Jensen Huang, cofondateur et PDG de Nvidia, est sorti en courant, a serré la main de Kurian et a décrit les intentions des partenaires comme étant rien de moins qu’une « réingénierie de l’ensemble de la pile, des processeurs aux systèmes en passant par les réseaux et tous les logiciels, et tout cela pour accélérer l’IA et créer des logiciels et des infrastructures pour les chercheurs et les développeurs d’IA du monde entier ».

Cette proclamation intervient près d’un an après que Huang a déclaré que Google faisait partie des entreprises qui mettaient la main sur le GPU H100 Tensor Core de Nvidia. Au cours des mois qui ont suivi, Google a dévoilé les plans de son supercalculateur A3 équipé de GPU H100, qui, selon le géant du web, serait destiné à relever les défis croissants posés par l’IA générative et l’entraînement de modèles de langage de grande taille. En plus de l’annonce du partenariat élargi cette semaine, Google Cloud a également marqué le point culminant de l’année de travail passée en annonçant que ses nouvelles instances A3 alimentées par ces GPU Nvidia H100 seront disponibles le mois prochain, offrant une formation trois fois plus rapide et une bande passante de réseau considérablement améliorée par rapport aux versions précédentes.

Ces annonces font suite à la nomination de Nvidia comme partenaire de l’année pour l’IA générative de Google Cloud, ce qui n’est probablement pas une surprise à ce stade.

En ce qui concerne l’élargissement du travail conjoint, les représentants de Google ont déclaré que l’entreprise utilisait les GPU H100 et A100 pour la recherche interne et l’inférence dans son DeepMind et d’autres divisions, tandis que Huang a souligné les niveaux de collaboration plus profonds qui ont permis l’accélération du GPU Nvidia pour le cadre d’apprentissage machine basé sur PaxML Jax pour la création de LLM massifs. PaxML a été utilisé par Google pour construire des modèles internes, y compris DeepMind ainsi que des projets de recherche, et continuera à exploiter les GPU Nvidia. Les partenaires ont également annoncé que PaxML est disponible immédiatement sur le registre de conteneurs NVIDIA NGC.

Huang a décrit le travail de PaxML comme la création de cadres permettant à Google Cloud et à Nvidia  » de repousser les frontières des grands modèles de langage distribués à travers des infrastructures géantes, afin que nous puissions faire gagner du temps aux chercheurs en IA pour passer à des modèles gigantesques de nouvelle génération, économiser de l’argent et de l’énergie, et tout cela nécessite de l’informatique de pointe « .

En outre, les partenaires ont également annoncé lors de Google Cloud Next que :

Les GPU H100 de Nvidia équiperont la plateforme Vertex AI de Google Cloud. Les GPU H100 devraient être généralement disponibles sur VertexAI dans les semaines à venir, permettant aux clients de développer rapidement des LLM d’IA générative.

Google Cloud sera l’une des premières entreprises à avoir accès au DGX GH200 de Nvidia, le nouveau système de supercalculateur d’IA dont Nvidia a parlé pendant la majeure partie des trois derniers mois, afin d’explorer ses capacités pour les charges de travail d’IA générative.

Le Nvidia DGX Cloud, que l’entreprise a annoncé lors de son événement GTC de printemps, arrive sur Google Cloud, permettant aux clients de disposer de supercalculateurs et de logiciels d’IA directement à partir de leur navigateur web afin de fournir vitesse et échelle pour les charges de travail d’entraînement avancées.

Le logiciel Nvidia AI Enterprise sera disponible sur Google Cloud Marketplace.

Google Cloud est le premier à proposer les GPU Nvidia L4, les produits annoncés par Nvidia en mars dernier qui seront parmi les premiers GPU destinés aux tâches d’inférence de l’IA, par opposition à l’entraînement à l’IA, qui a fait la force du géant des semi-conducteurs dans le domaine de l’IA.

Ainsi, à l’heure où l’on voit Google travailler et investir dans ses propres processeurs, comme sa Tensor Processing Unit (TPU), il semble qu’il ait l’intention de travailler encore plus étroitement – et non pas moins, du moins pour l’instant – avec Nvidia. M. Kurian a déclaré : « Pour nous, chez Google, il s’agit d’une évolution naturelle du marché de l’IA. Beaucoup de gens me demandent : « Quelle est la relation entre les TPU et les GPU ? Qu’en pensez-vous ? Très simplement, à mesure que l’IA évolue, les besoins de l’architecture matérielle et de la pile logicielle passent de l’entraînement à l’inférence, à de nouvelles capacités telles que l’intégration, et nous voulons offrir aux clients les choix les plus larges et les plus optimisés… Nous proposons en fait 13 types d’accélérateurs différents dans GCP. Deuxièmement, nous sommes aussi une entreprise de plateforme… au cœur de tout cela, et nous voulons attirer tous les développeurs et clients qui aiment la technologie ou les logiciels Nvidia GPU vers notre plateforme ».

WP Twitter Auto Publish Powered By : XYZScripts.com