Apprenez des langues naturellement grâce à des contenus frais et authentiques !

Appuyez pour traduire - enregistrement

Explorer par région

flag Nvidia lance des racks Groq 3 LPU pour une inférence AI plus rapide et plus efficace, en expédition vers la fin de 2026.

flag Nvidia a lancé l'unité de traitement du langage (LPU) Groq 3 et les racks de serveurs LPX associés, intégrant la technologie de Groq dans sa plate-forme Vera Rubin pour augmenter la vitesse et l'efficacité de l'inférence IA. flag Le système, qui comprend 256 LPU par rack, offre jusqu'à 1 500 jetons par seconde avec 35 fois plus de débit par watt, ciblant des modèles de trillions de paramètres et des charges de travail d'IA agentiques. flag Conçue pour compléter les processeurs Rubin et Vera de Nvidia, la plateforme vise à réduire la latence et l'utilisation de l'énergie tout en permettant des revenus plus élevés par million de jetons. flag Les racks Groq 3 LPX devraient être livrés à la fin de 2026, Nvidia introduisant également la plate-forme logicielle Dynamo 1.0 open-source pour rationaliser l'inférence d'IA à grande échelle. flag Cette évolution marque un virage stratégique vers un matériel spécialisé d'inférence, dans un contexte de concurrence croissante et de demande croissante de la part des hyperscalaires et des fournisseurs de services d'IA.

55 Articles