Introduction
Nvidia, nouveau numéro 1 de l’informatique d’entreprise ? C’est en tout cas ce que tous les chiffres prédisent. Ceux de la bourse américaine pour commencer. Nvidia a franchi la barre des 1 000 milliards de dollars en valeur au milieu de l’année 2023, dépassant Amazon et Alphabet, la maison-mère de Google et faisant de lui la troisième plus grande société américaine cotée en bourse. À la fin de l’année 2023, les actions de Nvidia avaient progressé de 239 % en un an.
Concernant les ventes, le dernier chiffre d’affaires trimestriel de Nvidia atteint 22,1 milliards de dollars. Il a bondi de 265 % en un an et frôle désormais celui de Dell (25 mds $), le plus gros vendeur d’équipements aux entreprises. Il est aussi supérieur à celui d’Intel et d’AMD (respectivement 15,4 et 6,17 mds $), les champions des processeurs dans les serveurs. Et il est même meilleur que celui d’Apple, hors iPhone et accessoires domestiques (14,8 mds $ pour les Mac et les iPad lors du dernier trimestre).
Surtout, les technologies d’avant-garde de Nvidia redynamisent manifestement les investissements dans les datacenters privés, de l’ordre de +25 % par an à présent, alors que le secteur était plutôt moribond depuis l’avènement du cloud public.
Nvidia est aujourd’hui le plus important producteur de GPU du monde. Les GPU sont des puces initialement conçues pour accélérer la génération d’images à partir de formules mathématiques. Celles de Nvidia peuvent à présent traiter des quantités énormes d’équations nécessaires à l’entraînement des modèles d’IA générative, comme ChatGPT et Gemini. Puisque Nvidia dominait ce marché avant que l’IA ne s’impose aux entreprises, le fournisseur n’a fait que croître à mesure que la demande montait en flèche.
Selon le cabinet Bloomberg Intelligence, le secteur de l’IA devrait connaître un taux de croissance annuel de 42 % au cours des dix prochaines années. Le marché des équipements et des logiciels dédiés à l’IA pourrait peser 1 300 milliards de dollars d’ici à 2032.
Tel est le contexte dans lequel s’est récemment clos l’événement annuel GTC 2024. Lors de cette édition de sa grande conférence annuelle, Nvidia n’a pas fait qu’annoncer de nouveaux produits : des puces Blackwell qui repoussent les limites de la puissance de calcul, des logiciels NeMo qui assoient ses technologies dans la conception des applications d’IA. Son patron Jensen Huang a aussi déroulé sa vision stratégique : désormais, les ordinateurs ne seront plus construits comme ils l’ont été depuis les années 70.
En plaçant la RAM au centre des circuits du processeur plutôt qu’ailleurs sur la carte mère, les machines deviendront tellement puissantes comparativement aux bandes passantes réseau, que le téléchargement d’informations sera minoré au bénéfice d’une génération d’information par l’IA. Même un smartphone pourrait à terme générer les prochaines images d’une vidéo sans avoir besoin de télécharger leurs pixels.
On ignore quand Nvidia déclinera ses GPUs très haut de gamme H100 et B200 – respectivement 700 et 1 200 W de dissipation thermique, soit cinq fois plus qu’un Xeon – dans des appareils d’appoint. En attendant, le constructeur pose déjà de nouveaux standards dans les serveurs. À commencer par une connectique réseau en très haut débit. Jusqu’à 400 Gbit/s, entre les GPUs et les baies de stockage où se trouvent les données à ingérer dans les moteurs d’IA, qu’il s’agisse de la phase d’entraînement comme de celle d’inférence.
C’est ainsi que les annonces les plus retentissantes de la conférence GTC 2024, mises à part celles de Nvidia, sont venues des fournisseurs de baies de stockage. Tous ont mis à jour leurs offres pour proposer des solutions spécialement adaptées aux serveurs DGX et OVX, les nouveaux formats de machines que Nvidia compte imposer dans les data centers.
Ce guide a vocation à faire le point sur cette stratégie et ces annonces.
1Stratégie–
Comment Nvidia devient doucement no 1 des fournisseurs d’infrastructure
2Produits–
Des matériels surpuissants et un ensemble complet de kits logiciels
GTC 2024 : Nvidia pousse sa stratégie du « tout-en-un »
Lors de la GTC 2024, l’éditeur et spécialiste du GPU a complété son offre logicielle en présentant des « microservices », plus précisément une collection d’images de conteneurs préparées contenant des outils consacrés à l’entraînement, mais surtout à l’inférence de grands modèles de langage. Lire la suite