Apprenez des langues naturellement grâce à des contenus frais et authentiques !

Sujets populaires
Explorer par région
Nvidia lance des racks Groq 3 LPU pour une inférence AI plus rapide et plus efficace, en expédition vers la fin de 2026.
Nvidia a lancé l'unité de traitement du langage (LPU) Groq 3 et les racks de serveurs LPX associés, intégrant la technologie de Groq dans sa plate-forme Vera Rubin pour augmenter la vitesse et l'efficacité de l'inférence IA.
Le système, qui comprend 256 LPU par rack, offre jusqu'à 1 500 jetons par seconde avec 35 fois plus de débit par watt, ciblant des modèles de trillions de paramètres et des charges de travail d'IA agentiques.
Conçue pour compléter les processeurs Rubin et Vera de Nvidia, la plateforme vise à réduire la latence et l'utilisation de l'énergie tout en permettant des revenus plus élevés par million de jetons.
Les racks Groq 3 LPX devraient être livrés à la fin de 2026, Nvidia introduisant également la plate-forme logicielle Dynamo 1.0 open-source pour rationaliser l'inférence d'IA à grande échelle.
Cette évolution marque un virage stratégique vers un matériel spécialisé d'inférence, dans un contexte de concurrence croissante et de demande croissante de la part des hyperscalaires et des fournisseurs de services d'IA.
Nvidia launches Groq 3 LPU racks for faster, more efficient AI inference, shipping late 2026.