Nvidia a passé les premiers jours du GTC 2026 à accumuler des annonces de partenariats dans les domaines des puces, du cloud computing, de la robotique, des télécommunications, de l'automobile, des logiciels d'usine, de l'espace et des graphiques.
L'événement a débuté lundi et se déroule sur trois jours.
S'adressant à une foule nombreuse, le PDG de Nvidia, Jensen Huang, a déclaré qu'il s'attend à ce que les bons de commande liés à Blackwell et Vera Rubin atteignent 1 000 milliards de dollars d'ici 2027, ce qui est bien supérieur à l'opportunité de revenus de 500 milliards de dollars dont l'entreprise avait parlé l'année dernière pour ces deux plateformes de puces.
Jensen a également réaffirmé que la demande de Nvidia reste forte, tant de la part des startups que des grandes entreprises. Les actions de Nvidia ont augmenté d'environ 2% lundi, bien que le titre soit repassé dans le rouge au moment de la publication mardi.
La plus grande histoire de la conférence, cependant, a été le flux de transactions. Selon le décompte de Cryptopolitan, l'entreprise a déjà annoncé bien plus de 10 partenariats, avec un total atteignant environ 15-17.
L'une des annonces les plus inhabituelles du GTC 2026 portait sur l'espace. Nvidia a déclaré que ses nouvelles plateformes de calcul accéléré sont utilisées pour pousser le calcul d'IA vers les centres de données orbitaux, l'intelligence géospatiale et les opérations spatiales autonomes.
L'entreprise a déclaré qu'elle cible des environnements où la taille, le poids et la puissance sont limités, mais où la demande de puissance de calcul sérieuse continue d'augmenter.
C'est là qu'intervient le nouveau module NVIDIA Space-1 Vera Rubin. Nvidia a déclaré que le module est la dernière partie de sa plateforme accélérée pour l'espace. Elle a également déclaré que le GPU Rubin sur le module peut fournir jusqu'à 25 fois plus de calcul d'IA pour l'inférence spatiale que le GPU NVIDIA H100.
L'entreprise a lié cette augmentation au calcul de nouvelle génération pour les centres de données orbitaux, au traitement de l'intelligence géospatiale plus avancé et aux opérations spatiales autonomes. Elle a également déclaré que la plateforme est conçue pour permettre aux applications d'IA de fonctionner du sol vers l'espace et de l'espace vers l'espace à mesure que les besoins de mission deviennent plus complexes.
Nvidia a déclaré qu'elle travaille avec des développeurs de cerveaux de robots, des fabricants de robots industriels et des entreprises de robots humanoïdes pour promouvoir l'IA physique à l'échelle de la production.
Au GTC, Jensen a présenté les nouveaux frameworks de simulation NVIDIA Isaac et les nouveaux modèles ouverts NVIDIA Cosmos et NVIDIA Isaac GR00T.
La liste des partenaires sur ce front est longue, car Nvidia a cité ABB Robotics, AGIBOT, Agility, FANUC, Figure, Hexagon Robotics, KUKA, Skild AI, Universal Robots, World Labs et YASKAWA comme leaders de l'industrie développant sur sa plateforme. Jensen a déclaré :
Nvidia a également annoncé une initiative logicielle industrielle distincte. Elle a déclaré qu'elle travaille avec Cadence, Dassault Systèmes, PTC, Siemens et Synopsys pour apporter NVIDIA CUDA-X, NVIDIA Omniverse et des outils industriels accélérés par GPU à FANUC, HD Hyundai, Honda, JLR, KION, Mercedes-Benz, MediaTek, PepsiCo, Samsung, SK hynix et TSMC.
L'entreprise a déclaré que ces outils seront utilisés pour accélérer la conception, l'ingénierie et la fabrication.
Ce même groupe de sociétés logicielles déploie également des outils d'IA agentique alimentés par Nvidia pour les clients se préparant à la prochaine étape du marché de l'IA.
Nvidia a déclaré que ces solutions fonctionnent sur son infrastructure d'IA via Amazon Web Services, Google Cloud, Microsoft Azure et Oracle Cloud Infrastructure, ainsi que par l'intermédiaire des fabricants d'équipements d'origine Dell, HPE et Supermicro pour des travaux de conception et de simulation plus rapides.
Le côté automobile de l'événement a également été très actif. Nvidia a déclaré qu'elle a élargi son travail avec Hyundai Motor Company et Kia Corporation sur la technologie de conduite autonome de nouvelle génération construite sur la plateforme NVIDIA DRIVE Hyperion.
L'entreprise a déclaré que la collaboration combine les capacités de véhicules définis par logiciel de Hyundai, sa flotte mondiale et son travail de développement de conduite autonome avec le calcul accéléré de Nvidia, l'infrastructure d'IA et le logiciel de conduite autonome.
Dans le cadre de cette relation élargie, Hyundai prévoit d'intégrer la technologie de conduite autonome de Nvidia dans certains véhicules, prenant en charge les systèmes de niveau 2 et supérieurs. L'entreprise a déclaré que ce travail vise à améliorer la sécurité et à ajouter des fonctions de conduite plus intelligentes sur les plateformes de véhicules Hyundai.
Nvidia a également déclaré que l'adoption de DRIVE Hyperion se développe avec les constructeurs automobiles mondiaux BYD, Geely, Isuzu et Nissan, ainsi qu'avec les fournisseurs de mobilité.
Un autre partenariat portait sur le nouveau NVIDIA Physical AI Data Factory Blueprint, que Nvidia a décrit comme une architecture de référence ouverte qui unifie et automatise la manière dont les données d'entraînement sont générées, étendues et évaluées.
Pour cet effort, l'entreprise a déclaré qu'elle travaille avec Microsoft Azure et Nebius pour intégrer le blueprint dans l'infrastructure et les services cloud.
Nvidia a également lancé NVIDIA Dynamo 1.0, un logiciel open-source pour l'inférence générative et agentique à grande échelle. Associé à la plateforme NVIDIA Blackwell, l'entreprise a déclaré que le logiciel aide les fournisseurs cloud, les entreprises d'IA et les entreprises à fournir l'inférence avec plus de vitesse, d'échelle et d'efficacité.
L'entreprise a déclaré que le problème maintenant n'est pas seulement la puissance de calcul brute. C'est l'orchestration à l'intérieur du centre de données, où les demandes arrivent de différentes tailles, dans différents formats et par rafales imprévisibles.
C'est pourquoi Nvidia a décrit Dynamo 1.0 comme le système d'exploitation distribué des usines d'IA. Le logiciel est conçu pour coordonner les ressources GPU et mémoire dans un cluster pour des charges de travail d'IA plus complexes. Dans les benchmarks de l'industrie, Nvidia a déclaré que Dynamo a amélioré les performances d'inférence sur les GPU NVIDIA Blackwell jusqu'à 7 fois.
Les télécommunications étaient un autre domaine sur la liste. Nvidia et T-Mobile ont déclaré qu'ils travaillent avec Nokia et un écosystème croissant de développeurs pour apporter des applications d'IA physique sur des réseaux d'IA edge distribués.
Les entreprises ont déclaré que l'infrastructure AI-RAN de nouvelle génération peut transformer les réseaux sans fil en une plateforme de calcul d'IA edge haute performance distribué.
Ils ont lié cela aux développeurs créant des Agents d'IA de vision qui peuvent comprendre le monde physique à travers les villes, les services publics et les sites de travail industriels via la plateforme NVIDIA Metropolis.
T-Mobile a déclaré qu'elle était la première aux États-Unis à tester l'infrastructure AI-RAN de Nvidia en utilisant le logiciel anyRAN de Nokia. L'opérateur travaille maintenant avec des partenaires sélectionnés d'IA physique de Nvidia tout en continuant à fournir une connectivité 5G avancée.
L'entreprise a également lancé le CPU NVIDIA Vera, qu'elle a qualifié de premier processeur conçu pour l'IA agentique et l'apprentissage par renforcement. Nvidia a déclaré que Vera offre deux fois plus d'efficacité et fonctionne 50% plus rapidement que les CPU traditionnels à l'échelle du rack.
La puce s'appuie sur le CPU NVIDIA Grace antérieur et est destinée aux organisations construisant des usines d'IA pour les assistants de codage, les Agents d'IA d'entreprise, les Agents d'IA grand public et d'autres services d'IA à grande échelle. Nvidia a déclaré que Vera apporte les performances de thread unique et la bande passante par cœur les plus élevées.
Les entreprises travaillant avec Nvidia pour déployer Vera incluent les hyperscalers Alibaba, CoreWeave, Meta et Oracle Cloud Infrastructure, ainsi que les fabricants de systèmes Dell Technologies, HPE, Lenovo, Supermicro et autres.
Si vous lisez ceci, vous avez déjà une longueur d'avance. Restez-y avec notre newsletter.

