Mistral vient de lancer Mistral 3, une nouvelle famille de 10 modèles open-weight, conçus pour fonctionner sur tout, du cloud grand public aux ordinateurs portables, drones et robots.
La startup d’IA Mistral a dévoilé Mistral 3, la dernière génération de ses modèles, comprenant trois modèles denses compacts et performants de 14B, 8B et 3B paramètres, ainsi que Mistral Large 3, son modèle le plus avancé à ce jour — un système sparse mixture-of-experts entraîné avec 41B de paramètres actifs et 675B de paramètres au total. Tous les modèles sont disponibles sous licence Apache 2.0, offrant aux développeurs un accès open source dans de multiples formats compressés pour soutenir les applications d’IA distribuées.
Les modèles Ministral sont conçus pour offrir un excellent rapport performance/coût, tandis que Mistral Large 3 se positionne parmi les modèles open source fine-tunés pour les instructions les plus performants. Entraîné depuis zéro sur 3 000 GPU NVIDIA H200, Mistral Large 3 marque la première sortie mixture-of-experts de la société depuis la série Mixtral et représente une avancée significative en pré-entraînement. Après post-formation, il rivalise avec les meilleurs modèles open-weight adaptés aux instructions sur les prompts généraux et démontre une compréhension avancée des images ainsi que des capacités de conversation multilingues supérieures.
Mistral Large 3 a fait ses débuts à la #2 in the OSS non-reasoning models category and #6 place globale sur le classement LMArena. Les versions de base et fine-tunées pour les instructions sont toutes deux publiées sous Apache 2.0, offrant une plateforme robuste pour la personnalisation par les entreprises et développeurs, avec une version dédiée au raisonnement prévue pour une sortie future.
Mistral s’associe à NVIDIA, vLLM et Red Hat pour améliorer l’accessibilité et la performance de Mistral 3
Mistral Large 3 a été rendu très accessible à la communauté open source grâce à des collaborations avec vLLM et Red Hat. Un checkpoint au format NVFP4, optimisé avec llm-compressor, permet une exécution efficace sur les systèmes Blackwell NVL72 ou un seul nœud 8×A100 ou 8×H100 via vLLM.
Le développement de modèles d’IA open source avancés repose sur une optimisation matérielle et logicielle poussée, réalisée en partenariat avec NVIDIA. Tous les modèles Mistral 3, y compris Large 3 et Ministral 3, ont été entraînés sur des GPU NVIDIA Hopper, utilisant la mémoire HBM3e à large bande passante pour des charges de travail à grande échelle. L’approche de co-design de NVIDIA intègre matériel, logiciel et modèles pour permettre une inférence efficace avec TensorRT-LLM et SGLang sur toute la famille Mistral 3, prenant en charge l’exécution en faible précision.
Pour l’architecture sparse mixture-of-experts de Large 3, NVIDIA a implémenté Blackwell attention et les noyaux MoE, ajouté le service préremplissage/décodage désagrégé, et collaboré sur le décodage spéculatif, permettant aux développeurs de gérer des charges de travail à contexte long et à haut débit sur les systèmes GB200 NVL72 et au-delà. Les modèles Ministral sont également optimisés pour un déploiement sur DGX Spark, PC et portables RTX, et appareils Jetson, offrant une expérience cohérente et performante des data centers jusqu’aux applications edge. Mistral adresse ses remerciements à vLLM, Red Hat et NVIDIA pour leur soutien et leur collaboration.
Ministral 3 : performances avancées de l’IA pour les déploiements locaux et edge
La série Ministral 3 est conçue pour les déploiements edge et locaux, proposée en trois tailles — 3B, 8B et 14B paramètres. Chaque taille est disponible en variantes base, instruct et reasoning, toutes dotées de la compréhension d’images et publiées sous licence Apache 2.0. Associée à des capacités multimodales et multilingues natives, la famille Ministral 3 offre des solutions polyvalentes pour les applications entreprises et développeurs.
La série offre un ratio coût/performance exceptionnel parmi les modèles open source, les variantes instruct égalant ou surpassant les modèles comparables tout en générant nettement moins de tokens. Pour les scénarios où la précision prime, les variantes reasoning peuvent effectuer des calculs étendus pour atteindre une précision de pointe dans leur catégorie, comme 85 % sur AIME ’25 avec le modèle 14B.
Mistral 3 est actuellement accessible via Mistral AI Studio, Amazon Bedrock, Azure Foundry, Hugging Face (Large 3 & Ministral), Modal, IBM WatsonX, OpenRouter, Fireworks, Unsloth AI et Together AI, avec une disponibilité prochaine sur NVIDIA NIM et AWS SageMaker.
Mistral reste un contributeur majeur à l’écosystème européen des modèles d’IA et aux initiatives open source, bien que son dernier modèle phare soit encore en retrait par rapport aux principaux concurrents du secteur en matière de performance, de rapidité et de coût. Les variantes Ministral plus petites pourraient offrir une alternative plus pratique, proposant des options flexibles pour divers cas d’usage et déploiements sur différents appareils.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Mistral dévoile Mistral 3 : des modèles open source de nouvelle génération pour l’IA d’entreprise et en périphérie
En bref
Mistral vient de lancer Mistral 3, une nouvelle famille de 10 modèles open-weight, conçus pour fonctionner sur tout, du cloud grand public aux ordinateurs portables, drones et robots.
La startup d’IA Mistral a dévoilé Mistral 3, la dernière génération de ses modèles, comprenant trois modèles denses compacts et performants de 14B, 8B et 3B paramètres, ainsi que Mistral Large 3, son modèle le plus avancé à ce jour — un système sparse mixture-of-experts entraîné avec 41B de paramètres actifs et 675B de paramètres au total. Tous les modèles sont disponibles sous licence Apache 2.0, offrant aux développeurs un accès open source dans de multiples formats compressés pour soutenir les applications d’IA distribuées.
Les modèles Ministral sont conçus pour offrir un excellent rapport performance/coût, tandis que Mistral Large 3 se positionne parmi les modèles open source fine-tunés pour les instructions les plus performants. Entraîné depuis zéro sur 3 000 GPU NVIDIA H200, Mistral Large 3 marque la première sortie mixture-of-experts de la société depuis la série Mixtral et représente une avancée significative en pré-entraînement. Après post-formation, il rivalise avec les meilleurs modèles open-weight adaptés aux instructions sur les prompts généraux et démontre une compréhension avancée des images ainsi que des capacités de conversation multilingues supérieures.
Mistral Large 3 a fait ses débuts à la #2 in the OSS non-reasoning models category and #6 place globale sur le classement LMArena. Les versions de base et fine-tunées pour les instructions sont toutes deux publiées sous Apache 2.0, offrant une plateforme robuste pour la personnalisation par les entreprises et développeurs, avec une version dédiée au raisonnement prévue pour une sortie future.
Mistral s’associe à NVIDIA, vLLM et Red Hat pour améliorer l’accessibilité et la performance de Mistral 3
Mistral Large 3 a été rendu très accessible à la communauté open source grâce à des collaborations avec vLLM et Red Hat. Un checkpoint au format NVFP4, optimisé avec llm-compressor, permet une exécution efficace sur les systèmes Blackwell NVL72 ou un seul nœud 8×A100 ou 8×H100 via vLLM.
Le développement de modèles d’IA open source avancés repose sur une optimisation matérielle et logicielle poussée, réalisée en partenariat avec NVIDIA. Tous les modèles Mistral 3, y compris Large 3 et Ministral 3, ont été entraînés sur des GPU NVIDIA Hopper, utilisant la mémoire HBM3e à large bande passante pour des charges de travail à grande échelle. L’approche de co-design de NVIDIA intègre matériel, logiciel et modèles pour permettre une inférence efficace avec TensorRT-LLM et SGLang sur toute la famille Mistral 3, prenant en charge l’exécution en faible précision.
Pour l’architecture sparse mixture-of-experts de Large 3, NVIDIA a implémenté Blackwell attention et les noyaux MoE, ajouté le service préremplissage/décodage désagrégé, et collaboré sur le décodage spéculatif, permettant aux développeurs de gérer des charges de travail à contexte long et à haut débit sur les systèmes GB200 NVL72 et au-delà. Les modèles Ministral sont également optimisés pour un déploiement sur DGX Spark, PC et portables RTX, et appareils Jetson, offrant une expérience cohérente et performante des data centers jusqu’aux applications edge. Mistral adresse ses remerciements à vLLM, Red Hat et NVIDIA pour leur soutien et leur collaboration.
Ministral 3 : performances avancées de l’IA pour les déploiements locaux et edge
La série Ministral 3 est conçue pour les déploiements edge et locaux, proposée en trois tailles — 3B, 8B et 14B paramètres. Chaque taille est disponible en variantes base, instruct et reasoning, toutes dotées de la compréhension d’images et publiées sous licence Apache 2.0. Associée à des capacités multimodales et multilingues natives, la famille Ministral 3 offre des solutions polyvalentes pour les applications entreprises et développeurs.
La série offre un ratio coût/performance exceptionnel parmi les modèles open source, les variantes instruct égalant ou surpassant les modèles comparables tout en générant nettement moins de tokens. Pour les scénarios où la précision prime, les variantes reasoning peuvent effectuer des calculs étendus pour atteindre une précision de pointe dans leur catégorie, comme 85 % sur AIME ’25 avec le modèle 14B.
Mistral 3 est actuellement accessible via Mistral AI Studio, Amazon Bedrock, Azure Foundry, Hugging Face (Large 3 & Ministral), Modal, IBM WatsonX, OpenRouter, Fireworks, Unsloth AI et Together AI, avec une disponibilité prochaine sur NVIDIA NIM et AWS SageMaker.
Mistral reste un contributeur majeur à l’écosystème européen des modèles d’IA et aux initiatives open source, bien que son dernier modèle phare soit encore en retrait par rapport aux principaux concurrents du secteur en matière de performance, de rapidité et de coût. Les variantes Ministral plus petites pourraient offrir une alternative plus pratique, proposant des options flexibles pour divers cas d’usage et déploiements sur différents appareils.