[ad_1]
Lors de sa conférence sur la technologie GPU, Nvidia a annoncé la puce la plus puissante au monde pour l’informatique liée à l’IA, appelée GB200, qui alimentera le GPU Blackwell B200. C’est le successeur de la puce H100 AI et offre d’énormes améliorations en termes de performances et d’efficacité. Le nouveau GPU B200 est capable de 20 pétaflops de FP4 grâce aux 208 milliards de transistors à l’intérieur de la puce. De plus, le GB200 offre des performances 30 fois supérieures à celles du H100 pour les charges de travail d’inférence LLM, tout en réduisant la consommation d’énergie de 25 fois. Dans le benchmark GPT-3 LLM, le GB200 est également sept fois plus rapide que le H100. Par exemple, la formation d’un modèle avec 1 800 milliards de paramètres nécessiterait 8 000 GPU Hopper et environ 15 mégawatts, alors qu’un ensemble de 2 000 GPU Blackwell peut le faire pour seulement 4 mégawatts. Pour améliorer encore l’efficacité, Nvidia a conçu une nouvelle puce de commutation réseau dotée de 50 milliards de transistors pouvant gérer 576 GPU et leur permettre de communiquer entre eux à 1,8 To/s de bande passante bidirectionnelle. De cette façon, Nvidia a résolu un problème de communication comme auparavant, un système combinant 16 GPU passerait 60 % du temps à communiquer et 40 % du temps à calculer. Nvidia affirme offrir aux entreprises une solution complète. Par exemple, le GB200 NVL72 permet d’héberger 36 processeurs et 72 GPU dans un seul rack refroidi par liquide. Un DGX Superpod pour DGX GB200, en revanche, combine huit de ces systèmes en un seul, ce qui fait 288 processeurs et 576 GPU avec 240 To de mémoire. Des entreprises comme Oracle, Amazon, Google et Microsoft ont déjà partagé leur intention d’intégrer les racks NVL72 pour leurs services cloud. L’architecture GPU utilisée pour le GPU Blackwell B200 constituera probablement la base de la prochaine série RTX 5000. Source
[ad_2]