Apprenez des langues naturellement grâce à des contenus frais et authentiques !

Appuyez pour traduire - enregistrement

Explorer par région

flag La start-up chinoise de l'IA DeepSeek introduit une nouvelle méthode pour rendre les grands modèles plus efficaces, réduire les coûts et stimuler l'évolutivité.

flag DeepSeek, une startup chinoise de l'IA, a dévoilé une nouvelle méthode de formation appelée Manifold-Constrained Hyper-Connections, conçue pour rendre les grands modèles d'IA plus efficaces et évolutives tout en réduisant les coûts de calcul et d'énergie. flag La technique, détaillée dans un article co-écrit par le fondateur Liang Wenfeng et publié sur arXiv, aborde les problèmes d'instabilité et de mémoire de l'entraînement dans les modèles précédents, permettant une formation stable sur 3 milliards à 27 milliards de systèmes de paramètres avec un calcul minimal. flag Forte des travaux antérieurs de ByteDance, cette approche reflète la tendance de la Chine à l'innovation en matière d'IA malgré les restrictions américaines en matière de semi-conducteurs. flag La sortie alimente l'anticipation pour DeepSeeks prochain modèle majeur, probablement R2, attendu autour du Festival de printemps en février.

7 Articles

Pour aller plus loin