50 milliards de dollars sur la table et 2 GW de Trainium réservés ; la feuille de route d’OpenAI s’aligne avec l’infrastructure d’AWS pour industrialiser l’IA à grande échelle.
OpenAI Amazon : un socle commun pour le runtime stateful et la distribution
OpenAI et Amazon scellent un partenariat pluriannuel accompagné d’un investissement total de 50 milliards de dollars (environ 46,2 Md€ à titre indicatif) de la part d’Amazon, avec 15 Md$ immédiats puis 35 Md$ conditionnés. Objectif affiché : accélérer l’innovation IA pour entreprises, startups et grand public via AWS.
Pierre angulaire technique, un Stateful Runtime Environment, propulsé par les modèles d’OpenAI et déployé sur Amazon Bedrock, doit arriver dans les prochains mois. Cet environnement conservera le contexte, la mémoire, l’identité, l’accès aux outils et aux sources de données, et s’intégrera à Bedrock AgentCore ainsi qu’aux services d’infrastructure AWS pour exécuter des applications et agents IA au plus près des charges existantes.
Côté distribution, AWS devient l’unique fournisseur cloud tiers pour OpenAI Frontier, la plateforme entreprise la plus avancée d’OpenAI. Frontier vise la création, le déploiement et l’orchestration d’équipes d’agents IA sur des systèmes métiers réels avec contexte partagé, gouvernance intégrée et sécurité entreprise, sans gestion d’infrastructure côté client.
Capacité Trainium sécurisée et feuille de route jusqu’à Trainium4
L’accord existant de 38 Md$ est étendu de 100 Md$ sur 8 ans. OpenAI s’engage à consommer environ 2 gigawatts de capacité Trainium via AWS pour soutenir le Stateful Runtime, Frontier et d’autres workloads avancés. Le cadre garantit une capacité long terme et l’usage de silicium dédié au sein de l’écosystème compute AWS, pour abaisser coûts et latences de production d’intelligence à l’échelle.
La réservation couvre Trainium3 et la prochaine génération Trainium4. Les livraisons de Trainium4 sont attendues en 2027, avec un gain majeur de performances, une hausse significative du compute FP4, une bande passante mémoire élargie et davantage de HBM pour supporter des systèmes IA de plus en plus capacitaires.
Modèles personnalisés pour les apps d’Amazon
OpenAI et Amazon co-développeront des modèles sur mesure accessibles aux développeurs Amazon pour des applications face client. Les équipes d’Amazon pourront affiner les modèles d’OpenAI pour leurs produits et agents, en complément de la famille Nova déjà disponible en interne.
Sam Altman met en avant la combinaison des modèles d’OpenAI et de l’empreinte d’AWS pour un déploiement massif. Andy Jassy insiste sur le potentiel des environnements stateful et le choix d’OpenAI pour le silicium Trainium, adossé à une prise de participation et une collaboration de long terme.
Pour le marché, l’exclusivité de distribution de Frontier via AWS et la réservation de 2 GW de Trainium formalise un couplage cloud-silicium-modèles qui verrouille la montée en charge d’OpenAI. Si Trainium4 tient ses promesses en FP4 et bande passante mémoire en 2027, la fenêtre se resserre pour les alternatives qui n’alignent pas simultanément modèle, runtime stateful et capacité dédiée.
Source : TechPowerUp