Le PDG d’OpenAI, Sam Altman, révèle un fait surprenant : l’utilisation trop polie de ChatGPT par les utilisateurs du monde entier coûte au géant de l’IA des millions de dollars de plus chaque année en raison de l’augmentation invisible des coûts de calcul. (Synopsis : OpenAI publie o3 et o4-mini Le modèle d’inférence le plus puissant : peut penser à des images, sélectionner automatiquement des outils et dépasser les performances en mathématiques et en codage) (Supplément de contexte : OpenAI crée secrètement sa propre plate-forme communautaire, pointant vers le X de Musk) Dans le domaine de l’intelligence artificielle, l’efficacité et le contrôle des coûts sont des thèmes éternels, et Sam Altman, PDG d’OpenAI, a récemment souligné une source inattendue de coûts dans une conversation publique : Langage poli de la part de l’utilisateur. Altman a déclaré que lorsque de nombreux utilisateurs utilisent ChatGPT, ils ajoutent habituellement « s’il vous plaît », « merci », « pouvez-vous m’aider s’il vous plaît... Est-ce que c’est le cas ? et d’autres mots de politesse, bien que significatifs dans les relations interpersonnelles, sont des coûts de calcul supplémentaires pour les modèles de langage. Le prix de la politesse humaine Altman a mentionné dans le post que ces mots de politesse coûtaient des dizaines de millions de dollars pour répondre, et il est entendu que les grands modèles de langage tels que ChatGPT traitent les invites de saisie de l’utilisateur en divisant le texte en plus petites unités appelées jetons à comprendre et à générer. Un jeton peut faire partie d’un mot, d’un mot complet ou d’un signe de ponctuation. Plus l’invite d’entrée de l’utilisateur est longue, plus le nombre de jetons est inclus, et le modèle doit consommer une certaine quantité de ressources informatiques pour traiter chaque jeton, ce qui peut ne représenter qu’une petite partie de la surcharge globale d’OpenAI (y compris l’entraînement du modèle, la maintenance des serveurs, l’investissement en R&D, etc.), mais cela révèle que même de petits modèles de comportement des utilisateurs peuvent avoir un impact économique significatif dans les applications d’IA à grande échelle. Lorsqu’un utilisateur saisit une question ou une instruction dans ChatGPT, le système décompose d’abord votre texte en séquences de jetons, telles que « S’il vous plaît, dites-moi quel temps il fait aujourd’hui ? » Peut être décomposé en des choses comme ["s’il vous plaît », « dites », « moi », « aujourd’hui », « météo », « comment », « ?? ] un tel jeton. Et une commande plus concise : « Le temps qu’il fait aujourd’hui ? » Il ne peut être décomposé qu’en ["aujourd’hui », « météo », « ? » ], ce qui signifie la même chose, et peut entraîner des coûts supplémentaires en fonction du nombre d’étymologies. Le modèle effectue ensuite une phase d’inférence basée sur le nombre d’étymologies, généralement plus il y a de jetons entrés, plus le modèle doit traiter d’informations initiales, et des entrées plus longues peuvent parfois conduire à des réponses plus longues, augmentant encore la quantité de calcul à la sortie. Le traitement de chaque jeton nécessite un GPU puissant pour les opérations matricielles. Cependant, de nombreux utilisateurs ont répondu aux remarques d’Ultraman, en plus du problème de coût, les humains projettent en fait le besoin de politesse sur les mots à l’intelligence artificielle, ce qui peut être la raison pour laquelle la capacité de dialogue de ChatGPT est très fluide et naturelle, ce qui permet aux utilisateurs de le voir inconsciemment comme un partenaire de conversation de type humain. Les deux humains ont établi des normes profondément enracinées telles que la communication dans la société, et c’est aussi un coût supplémentaire pour les humains d’abandonner ces normes à cause des machines, et peuvent aussi inconsciemment suivre ces normes, et des méthodes de questionnement plus polies peuvent aider à obtenir des réponses plus amicales ou coopératives, qui à leur tour peuvent atteindre l’objectif de répondre de manière plus satisfaisante pour les humains. Dans l’ensemble, il est intéressant de parler de l’ajout de millions de dollars de coûts par ChatGPT en raison de la courtoisie des utilisateurs du point de vue d’Altman, révélant non seulement les coûts de calcul stupéfiants derrière les services d’IA à grande échelle, mais aussi la pression exercée sur les fournisseurs de services pour fournir de la puissance de calcul. Et la demande des utilisateurs a également poussé les modèles à devenir des résultats plus naturels, et dans l’ensemble, à l’ère de l’intelligence artificielle et des modèles de langage, les consommateurs pourraient être les plus grands gagnants. À lire aussi GPT-5 reporté ! OpenAI pousse d’abord o3, o4-mini, Sam Altman a révélé : l’intégration est plus difficile qu’on ne l’imaginait OpenAI a annoncé : le SDK Open Agents prend en charge MCP, connecte tout et franchit une étape clé OpenAI débloque des recherches approfondies : les utilisateurs payants peuvent interroger 10 fois par mois, Microsoft publie l’agent d’IA multimodal Magma (Sam Altman : OpenAI dépense des dizaines de millions de dollars en réponse aux utilisateurs de ChatGPT « s’il vous plaît, Merci » sur le mot〉Cet article a été publié pour la première fois dans « Dynamic Trend - The Most Influential Blockchain News Media » de BlockTempo.
Le contenu est fourni à titre de référence uniquement, il ne s'agit pas d'une sollicitation ou d'une offre. Aucun conseil en investissement, fiscalité ou juridique n'est fourni. Consultez l'Avertissement pour plus de détails sur les risques.
Sam Altman : OpenAI a dépensé des millions de dollars pour gérer les mots « s'il vous plaît, merci » des utilisateurs de ChatGPT.
Le PDG d’OpenAI, Sam Altman, révèle un fait surprenant : l’utilisation trop polie de ChatGPT par les utilisateurs du monde entier coûte au géant de l’IA des millions de dollars de plus chaque année en raison de l’augmentation invisible des coûts de calcul. (Synopsis : OpenAI publie o3 et o4-mini Le modèle d’inférence le plus puissant : peut penser à des images, sélectionner automatiquement des outils et dépasser les performances en mathématiques et en codage) (Supplément de contexte : OpenAI crée secrètement sa propre plate-forme communautaire, pointant vers le X de Musk) Dans le domaine de l’intelligence artificielle, l’efficacité et le contrôle des coûts sont des thèmes éternels, et Sam Altman, PDG d’OpenAI, a récemment souligné une source inattendue de coûts dans une conversation publique : Langage poli de la part de l’utilisateur. Altman a déclaré que lorsque de nombreux utilisateurs utilisent ChatGPT, ils ajoutent habituellement « s’il vous plaît », « merci », « pouvez-vous m’aider s’il vous plaît... Est-ce que c’est le cas ? et d’autres mots de politesse, bien que significatifs dans les relations interpersonnelles, sont des coûts de calcul supplémentaires pour les modèles de langage. Le prix de la politesse humaine Altman a mentionné dans le post que ces mots de politesse coûtaient des dizaines de millions de dollars pour répondre, et il est entendu que les grands modèles de langage tels que ChatGPT traitent les invites de saisie de l’utilisateur en divisant le texte en plus petites unités appelées jetons à comprendre et à générer. Un jeton peut faire partie d’un mot, d’un mot complet ou d’un signe de ponctuation. Plus l’invite d’entrée de l’utilisateur est longue, plus le nombre de jetons est inclus, et le modèle doit consommer une certaine quantité de ressources informatiques pour traiter chaque jeton, ce qui peut ne représenter qu’une petite partie de la surcharge globale d’OpenAI (y compris l’entraînement du modèle, la maintenance des serveurs, l’investissement en R&D, etc.), mais cela révèle que même de petits modèles de comportement des utilisateurs peuvent avoir un impact économique significatif dans les applications d’IA à grande échelle. Lorsqu’un utilisateur saisit une question ou une instruction dans ChatGPT, le système décompose d’abord votre texte en séquences de jetons, telles que « S’il vous plaît, dites-moi quel temps il fait aujourd’hui ? » Peut être décomposé en des choses comme ["s’il vous plaît », « dites », « moi », « aujourd’hui », « météo », « comment », « ?? ] un tel jeton. Et une commande plus concise : « Le temps qu’il fait aujourd’hui ? » Il ne peut être décomposé qu’en ["aujourd’hui », « météo », « ? » ], ce qui signifie la même chose, et peut entraîner des coûts supplémentaires en fonction du nombre d’étymologies. Le modèle effectue ensuite une phase d’inférence basée sur le nombre d’étymologies, généralement plus il y a de jetons entrés, plus le modèle doit traiter d’informations initiales, et des entrées plus longues peuvent parfois conduire à des réponses plus longues, augmentant encore la quantité de calcul à la sortie. Le traitement de chaque jeton nécessite un GPU puissant pour les opérations matricielles. Cependant, de nombreux utilisateurs ont répondu aux remarques d’Ultraman, en plus du problème de coût, les humains projettent en fait le besoin de politesse sur les mots à l’intelligence artificielle, ce qui peut être la raison pour laquelle la capacité de dialogue de ChatGPT est très fluide et naturelle, ce qui permet aux utilisateurs de le voir inconsciemment comme un partenaire de conversation de type humain. Les deux humains ont établi des normes profondément enracinées telles que la communication dans la société, et c’est aussi un coût supplémentaire pour les humains d’abandonner ces normes à cause des machines, et peuvent aussi inconsciemment suivre ces normes, et des méthodes de questionnement plus polies peuvent aider à obtenir des réponses plus amicales ou coopératives, qui à leur tour peuvent atteindre l’objectif de répondre de manière plus satisfaisante pour les humains. Dans l’ensemble, il est intéressant de parler de l’ajout de millions de dollars de coûts par ChatGPT en raison de la courtoisie des utilisateurs du point de vue d’Altman, révélant non seulement les coûts de calcul stupéfiants derrière les services d’IA à grande échelle, mais aussi la pression exercée sur les fournisseurs de services pour fournir de la puissance de calcul. Et la demande des utilisateurs a également poussé les modèles à devenir des résultats plus naturels, et dans l’ensemble, à l’ère de l’intelligence artificielle et des modèles de langage, les consommateurs pourraient être les plus grands gagnants. À lire aussi GPT-5 reporté ! OpenAI pousse d’abord o3, o4-mini, Sam Altman a révélé : l’intégration est plus difficile qu’on ne l’imaginait OpenAI a annoncé : le SDK Open Agents prend en charge MCP, connecte tout et franchit une étape clé OpenAI débloque des recherches approfondies : les utilisateurs payants peuvent interroger 10 fois par mois, Microsoft publie l’agent d’IA multimodal Magma (Sam Altman : OpenAI dépense des dizaines de millions de dollars en réponse aux utilisateurs de ChatGPT « s’il vous plaît, Merci » sur le mot〉Cet article a été publié pour la première fois dans « Dynamic Trend - The Most Influential Blockchain News Media » de BlockTempo.