13.6 C
Bruxelles
jeudi, septembre 11, 2025
AccueilFrançaisACTUALITEPromesse de Nvidia: avec un investissement de 100 millions de dollars, une...

Promesse de Nvidia: avec un investissement de 100 millions de dollars, une nouvelle puce AI donne des rendements de 5 milliards de dollars

Publié le

L’économie à elle seule fait tourner les têtes. Mais la technologie derrière cette affirmation audacieuse révèle pourquoi Nvidia reste intouchable dans l’arène des puces AI. Le Rubin CPX cible un point de douleur spécifique qui hante les développeurs d’IA: le traitement d’énormes quantités de données pour la création de vidéos et la génération de logiciels.

Le problème à un million

L’IA moderne fait face à un goulot d’étranglement écrasant. Le traitement d’une seule heure de contenu vidéo exige jusqu’à 1 million de jetons – des unités de données que les modèles d’IA digèrent. Les processeurs graphiques traditionnels se boulonnent sous cette charge. Pendant ce temps, les systèmes d’IA sont passés de simples chatbots en agents sophistiqués qui rédigent des logiciels entiers et génèrent des vidéos haute définition.

Optimisation de l’inférence en alignant les capacités du GPU avec les charges de travail de contexte et de génération. Crédit d’image: Nvidia

Ces modèles avancés doivent comprendre des bases de code entières, maintenir les dépendances croisées et saisir les structures de référentiel. Ils ne sont plus seulement des phrases de vos phrases. Ils deviennent des collaborateurs intelligents qui nécessitent un muscle informatique sans précédent.

La solution de Nvidia intègre des étapes de traitement précédemment séparées directement dans la puce. Décodage vidéo, encodage et inférence – le moment où l’IA produit sa sortie – se produit maintenant ensemble au lieu de rebondir entre différents composants.

La révolution de l’architecture

Le Rubin CPX ne fonctionne pas seul. Il fait partie de la stratégie d’inférence désagrégée de NVIDIA, qui divise le traitement de l’IA en deux phases distinctes. La phase de contexte dévore la puissance de calcul, analysant des données d’entrée massives. La phase de génération nécessite des transferts de mémoire rapide à la foudre pour produire des sorties jetons par jeton.

Cette séparation permet à chaque phase de fonctionner sur le matériel optimisé pour ses demandes spécifiques. Considérez-le comme ayant un sprinter gérer les rafales courtes tandis qu’un coureur de marathon aborde le long terme.

Les spécifications techniques lisent comme la science-fiction. Le Rubin CPX délivre 30 Petaflops de NVFP4 Calcul Power et emballe 128 Go de mémoire GDDR7. L’accélération matérielle du traitement vidéo est intégrée. Mécanismes d’attention – Crucial pour comprendre le contexte dans l’IA – Run trois fois plus rapide que les systèmes GB300 NVL72 actuels de NVIDIA.

Nvidia Rubin CPX. Crédit d'image: Nvidia
Nvidia Rubin CPX. Crédit d’image: Nvidia

Le package complet

NVIDIA emballe cette technologie dans le rack Vera Rubin NVL144 CPX – un géant contenant 144 GPU Rubin CPX, 144 GPU Rubin standard et 36 CPU Vera. Ce rack unique offre 8 exaflops de puissance de calcul, ce qui représente une augmentation de 7,5 fois par rapport au GB300 NVL72.

Le système propose 100 téraoctets de mémoire à grande vitesse avec 1,7 pétaoctets par seconde de bande passante de mémoire. Ces chiffres comptent car ils déterminent la rapidité avec laquelle l’IA peut traiter et générer des sorties complexes.

L’infrastructure de support comprend la mise en réseau Quantum-X800 Infiniband ou Spectrum-X de NVIDIA, associée à des superniques ConnectX-9. La plate-forme Dynamo orchestre tout, garantissant que les composants fonctionnent en harmonie.

Les enjeux continuent de monter

Wall Street regarde de près alors que les entreprises versent des centaines de milliards dans le matériel d’IA. La pression pour démontrer les rendements s’intensifie quotidiennement. La promesse de Nvidia de 30x à 50x sur le retour sur investissement répond directement à cette préoccupation.

L’entreprise domine déjà le marché des puces d’IA, détenant la Couronne comme l’entreprise la plus précieuse au monde. Mais la compétition se cache. Chaque grand joueur technologique veut un morceau du marché de l’accélération de l’IA. En ciblant des charges de travail spécifiques à grande valeur – génération video et développement de logiciels complexes – Nvidia aiguise son bord concurrentiel.

L’architecture Rubin succède à Blackwell Technology actuelle de Nvidia, marquant l’évolution continue de l’entreprise, de la vente de puces individuelles à la fourniture de systèmes de traitement complets. Chaque génération apporte des améliorations exponentielles de la capacité tout en abordant des goulots d’étranglement spécifiques qui limitent l’avancement de l’IA.

À mesure que les systèmes d’IA deviennent plus sophistiqués, ils exigent des infrastructures qui peuvent suivre le rythme. Les tâches étaient autrefois considérées comme impossibles – comme l’écriture entières entières ou la génération de vidéos de longues fonctionnalités – se rapprocher de la réalité. Le Rubin CPX représente le pari de NVIDIA que la résolution du défi de traitement des contextes à long terme débloque la prochaine vague de percées d’IA.

Le compte à rebours de la fin 2026 commence. Si NVIDIA tient ses promesses, le Rubin CPX pourrait accélérer la transition de l’IA des démos impressionnantes aux applications transformatrices réelles. Pour les entreprises qui investissent des milliards dans les infrastructures d’IA, cette transformation ne peut pas arriver assez tôt.

Écrit par Alius Noreika

Lien source

Publié à l’origine dans The European Times.

Publicité

Voir l'interview

spot_img

Autres articles

Afghanistan: nouvelles restrictions sur les femmes nationales travaillant pour l’ONU, mettez les efforts d’aide à risque

Ces mesures mettent une assistance humanitaire vitale et d'autres services essentiels à des...

La Californie vient de passer un projet de loi révolutionnaire réglementant les chatbots AI

Les législateurs de Californie viennent de nuire à l'histoire mercredi soir en adoptant une...

La Californie vient de passer un projet de loi révolutionnaire réglementant les chatbots AI

Les législateurs de Californie viennent de nuire à l'histoire mercredi soir en adoptant une...

Le chirurgien effectue une opération en solo révolutionnaire avec un assistant de robot AI

La procédure pionnière de Clinica Las condes à Santiago a combiné des outils chirurgicaux...

autres articles

Afghanistan: nouvelles restrictions sur les femmes nationales travaillant pour l’ONU, mettez les efforts d’aide à risque

Ces mesures mettent une assistance humanitaire vitale et d'autres services essentiels à des...

La Californie vient de passer un projet de loi révolutionnaire réglementant les chatbots AI

Les législateurs de Californie viennent de nuire à l'histoire mercredi soir en adoptant une...

La Californie vient de passer un projet de loi révolutionnaire réglementant les chatbots AI

Les législateurs de Californie viennent de nuire à l'histoire mercredi soir en adoptant une...