Apprenez des langues naturellement grâce à des contenus frais et authentiques !

Sujets populaires
Explorer par région
La start-up chinoise de l'IA DeepSeek introduit une nouvelle méthode pour rendre les grands modèles plus efficaces, réduire les coûts et stimuler l'évolutivité.
DeepSeek, une startup chinoise de l'IA, a dévoilé une nouvelle méthode de formation appelée Manifold-Constrained Hyper-Connections, conçue pour rendre les grands modèles d'IA plus efficaces et évolutives tout en réduisant les coûts de calcul et d'énergie.
La technique, détaillée dans un article co-écrit par le fondateur Liang Wenfeng et publié sur arXiv, aborde les problèmes d'instabilité et de mémoire de l'entraînement dans les modèles précédents, permettant une formation stable sur 3 milliards à 27 milliards de systèmes de paramètres avec un calcul minimal.
Forte des travaux antérieurs de ByteDance, cette approche reflète la tendance de la Chine à l'innovation en matière d'IA malgré les restrictions américaines en matière de semi-conducteurs.
La sortie alimente l'anticipation pour DeepSeeks prochain modèle majeur, probablement R2, attendu autour du Festival de printemps en février.
Chinese AI startup DeepSeek introduces new method to make large models more efficient, reducing costs and boosting scalability.