OpenAI a publié le modèle d’inférence le plus puissant d’o3 et o4-mini : peut penser à des images, sélectionner automatiquement des outils et faire des percées en mathématiques et en performances de codage

OpenAI a officiellement annoncé aujourd’hui les modèles d’inférence o3 et o4-mini, réalisant pour la première fois l’inférence d’images et l’intégration multi-outils, et la communauté est optimiste quant à son potentiel à promouvoir les « agents d’IA ». (Synopsis : OpenAI construit secrètement sa propre plate-forme sociale, pointant vers le X de Musk) (Supplément de contexte : GPT-5 reporté !) OpenAI pousse d’abord o3, o4-mini, Sam Altman a révélé : l’intégration est plus difficile que prévu) Le géant de l’intelligence artificielle OpenAI a officiellement publié deux modèles d’inférence de nouvelle génération - o3 et o4-mini tôt le matin du (17), mettant l’accent sur son « inférence d’image » et sa capacité à utiliser tous les outils ChatGPT de manière autonome, déclenchant une IA mondiale La communauté des développeurs est en effervescence, symbolisant une autre étape clé vers « l’IA de substitution » pour l’entreprise. Mathématiques, codage et autres percées en matière de performances o3 se positionne comme le modèle d’inférence le plus solide d’OpenAI à ce jour, conçu pour les tâches complexes de mathématiques, de sciences, d’écriture de code et de logique graphique, et atteint des performances de pointe dans SWE-bench Verified (benchmark de génie logiciel), avec un score de 69,1 %, devant les 62,3 % de Claude 3,7 Sonnet. O4-mini conserve une puissance de raisonnement élevée tout en tenant compte du coût et de la vitesse, devenant ainsi un premier choix léger pour les développeurs. Selon les données de test d’OpenAI, les performances d’o4-mini dans AIME (American Mathematics Competition) 2024 et 2025 sont respectivement de 93,4 % et 92,7 %, dépassant la version complète d’o3 et devenant le modèle actuel avec la plus grande précision ; Marquez 2700 points dans les compétitions Codeforces et classez-vous parmi les 200 meilleurs ingénieurs du monde. O3 et O4-mini poursuivent la méthode d’apprentissage orientée inférence mise en avant par la série O, spécialement conçue comme une architecture modèle de « réfléchir plus longtemps avant de répondre », afin que l’IA puisse non seulement réagir rapidement, mais aussi résoudre des problèmes complexes et en plusieurs étapes. Cette conception représente également qu’OpenAI continue de marcher dans le contexte technique de « plus de temps d’inférence = plus de performances » et teste cette hypothèse dans le processus d’apprentissage par renforcement. L’inférence d’images pour la première fois : l’IA peut « comprendre les diagrammes, les croquis et les PDF » La mise à jour la plus frappante est que les deux modèles ont pour la première fois des capacités d’inférence d’image. o3 et o4-mini peuvent comprendre et analyser des images, même en basse qualité, telles que des tableaux blancs manuscrits, des PDF flous, des croquis et des graphiques statistiques, et intégrer des processus de raisonnement en plusieurs étapes. Cela signifie que l’IA peut non seulement lire et répondre aux instructions textuelles, mais aussi « penser » la logique et l’association derrière l’image, évoluant vers un véritable système d’agents multimodaux. En plus d’améliorer la compréhension visuelle, les modèles peuvent également opérer sur des images, telles que le traitement de la rotation, de la mise à l’échelle ou de la déformation, en intégrant les images à la chaîne d’inférence et en débloquant de nouvelles solutions aux problèmes intermodaux. Intégration multi-outils : du « chat » à la « résolution de tâches » Les deux modèles peuvent appeler de manière autonome les outils fournis par ChatGPT, y compris la recherche, l’exécution de programmes, DALL· E Génération et analyse d’images pour réaliser le processus intégré de la réception des instructions, de la capture d’informations au raisonnement visuel. Contrairement à l’exécution passive précédente de la logique d’utilisation des outils, O3 et O4-mini ont des capacités de prise de décision autonomes et peuvent choisir automatiquement d’activer des outils tels que la recherche, l’exécution de programmes ou la génération d’images en fonction de la nature du problème, montrant un flux de travail proche de celui des experts humains. Cette manière flexible d’appliquer les politiques permet également au modèle d’ajuster dynamiquement l’ordre de traitement et le contenu en fonction de l’entrée, ce qui constitue une étape importante dans la transition vers une « IA de substitution ». OpenAI a également lancé l’outil open source Codex CLI permettant aux développeurs d’intégrer l’IA dans le terminal local pour faciliter l’écriture et le débogage du code. L’interface de ligne de commande Codex est maintenant open source et un programme de subventions de développement d’un million de dollars est ouvert. Prix et disponibilité : o4-mini a l’avantage d’un « CP élevé » Le prix de l’API du modèle o3 est de 10 $ par million de jetons d’entrée et de 40 $ par jeton de sortie ; En comparaison, l’O4-MINI ne coûte que 1,10 $ et 4,40 $, ce qui est légèrement inférieur en termes de performances, mais présente un avantage écrasant en termes de coûts. Les utilisateurs de ChatGPT Plus (20 $/mois), Pro (200 $/mois) et Team sont disponibles dès maintenant, et les entreprises et les établissements d’enseignement seront disponibles dans une semaine. OpenAI démontre clairement la direction de l’évolution de « l’IA d’inférence » à travers o3 et o4-mini, non seulement en améliorant les capacités du langage, mais aussi en intégrant pour la première fois la compréhension des images et le fonctionnement des outils. Ces deux modèles ne sont pas seulement un point de mise à jour unique, mais aussi une transition importante entre ChatGPT et l’IA par proxy. Le lancement futur d’o3-pro (qui sera disponible pour les utilisateurs Pro dans les semaines à venir) et de GPT-5, si cette série de percées technologiques peut être intégrée, aura l’occasion de définir la prochaine génération de normes de produits d’IA. OpenAI renforce GPT-4o pour se hisser à la deuxième place du classement ! Sam Altman : Une meilleure compréhension des personnes et de l’écriture de programmes, la créativité augmente OpenAI annonce : Le SDK Open Agents prend en charge MCP, connectant tout en série pour franchir une autre étape clé OpenAI lance le modèle de graphe le plus solide : graphiques d’information précis, entrée multimodale, réaliste et difficile à distinguer, intégré à GPT-4o 〈OpenAI publie o3 et o4-mini Les modèles d’inférence les plus puissants : peut penser à des images, sélectionner automatiquement des outils, des mathématiques, Cet article a été publié pour la première fois dans « Dynamic Trend - The Most Influential Blockchain News Media » de BlockTempo.

Voir l'original
Le contenu est fourni à titre de référence uniquement, il ne s'agit pas d'une sollicitation ou d'une offre. Aucun conseil en investissement, fiscalité ou juridique n'est fourni. Consultez l'Avertissement pour plus de détails sur les risques.
  • Récompense
  • Commentaire
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate.io app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • ไทย
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)