Meta lance le modèle d'IA multimodal open-source Llama 3.2 pour le traitement d'image et de texte.

Meta a lancé Lama 3.2, son premier modèle d'IA multimodal open-source capable de traiter des images et du texte. Il comprend des modèles de vision avec 11 milliards et 90 milliards de paramètres, et des modèles de texte légers avec 1 milliard et 3 milliards de paramètres, conçus pour divers matériels. La lama 3.2 vise à améliorer les applications d'IA dans des domaines tels que la réalité augmentée et l'analyse documentaire, offrant des performances compétitives dans les tâches de reconnaissance d'image contre des rivaux comme OpenAI et Anthropic.

September 25, 2024
10 Articles