Selon le Financial Times, Nvidia est sur le point d’entrer au capital d’OpenAI à hauteur d’environ 30 milliards de dollars, l’accord étant en phase finale et potentiellement bouclé d’ici la fin de semaine. Cette prise de participation s’inscrirait dans une levée de fonds plus large d’OpenAI, tout en remplaçant un cadre de coopération annoncé en septembre dernier et chiffré jusqu’à 100 milliards de dollars sur plusieurs années.
Le protocole d’accord de 2023 prévoyait au moins 10 GW de capacité de calcul fournis par Nvidia, avec un engagement de financement maximal de 100 milliards de dollars pour soutenir l’infrastructure, en contrepartie d’un engagement d’OpenAI à louer des puces Nvidia. Jensen Huang avait alors partagé la scène avec Sam Altman et Greg Brockman, parlant du « plus grand projet de puissance de calcul de l’histoire ». Depuis, OpenAI a multiplié les accords avec d’autres acteurs du cloud et des semi-conducteurs.
Le mois dernier, Jensen Huang avait préparé le terrain en indiquant que Nvidia participerait au tour en cours d’OpenAI, évoquant la plus grosse opération d’investissement de l’histoire du groupe, tout en précisant qu’elle serait « très en deçà » des 100 milliards de dollars précédemment évoqués. Le basculement d’un méga-contrat pluriannuel vers une entrée significative au capital modifie la nature du partenariat sans en diminuer la portée stratégique.
Un réalignement capitalistique plutôt qu’un contrat « tout-en-un »
Le passage d’un engagement d’infrastructure de 10 GW à une participation d’environ 30 milliards de dollars change la gouvernance et les incitations. Nvidia reste au cœur de l’empilement IA d’OpenAI via ses GPU et ses systèmes, mais arbitre son exposition financière en privilégiant des flux récurrents (ventes et locations de cartes, services, maintenance) plutôt qu’un financement massif d’infrastructure porté en direct.
Pour OpenAI, l’opération sécurise l’accès aux générations à venir de GPU et de serveurs Nvidia, tout en gardant de la latitude pour sourcer d’autres fournisseurs et clouds. La diversification déjà engagée depuis l’automne conforte une stratégie multi-fournisseurs visant à lisser les risques de disponibilité et de prix.
Impact marché et chaîne d’approvisionnement
Un ticket de 30 milliards de dollars ancre davantage Nvidia dans la trajectoire de croissance d’OpenAI au moment où la demande en H200/B200 et systèmes DGX/GB200 s’annonce tendue. Les partenaires cloud devraient conserver un rôle clé pour absorber les pics de capacité, tandis que les feuilles de route réseau et refroidissement en datacenter restent sous contrainte, notamment sur le watercooling et la densité par rack.
La révision du cadre initial évite à Nvidia de porter un risque d’actif trop concentré, tout en maximisant l’effet d’entraînement sur l’écosystème. Côté clients finaux, le signal principal porte sur la continuité d’accès aux GPU Nvidia pour les charges d’entraînement et d’inférence à grande échelle, avec un calendrier d’équipement qui dépendra surtout des capacités d’assemblage et de la logistique des ODM.
Si elle se confirme, l’opération formalise un compromis pragmatique : Nvidia privilégie la marge et la flexibilité d’allocation de ses GPU plutôt qu’un financement d’infrastructures quasi-intégrées, tandis qu’OpenAI verrouille un approvisionnement stratégique sans renoncer à la concurrence amont. Dans un marché où la contrainte n’est pas la demande mais la capacité, ce recentrage paraît rationnel.
Source : ITHome