El CEO de OpenAI, Sam Altman, revela un hecho sorprendente: el uso excesivamente educado de ChatGPT por parte de los usuarios del mundo le está costando al gigante de la IA millones de dólares más cada año debido al aumento invisible de los costos computacionales. (Sinopsis: OpenAI lanza o3 y o4-mini El modelo de inferencia más fuerte: puede pensar en imágenes, seleccionar herramientas automáticamente y superar el rendimiento matemático y de codificación) (Suplemento de antecedentes: OpenAI crea en secreto su propia plataforma comunitaria, apuntando a la X de Musk) En el campo de la inteligencia artificial, la eficiencia y el control de costos son temas eternos, y Sam Altman, CEO de OpenAI, señaló recientemente una fuente inesperada de costos en una conversación pública: Lenguaje educado por parte del usuario. Altman dijo que cuando muchos usuarios usan ChatGPT, habitualmente agregan "por favor", "gracias", "por favor pueden ayudarme... ¿Lo es? y otras palabras corteses, aunque significativas en las relaciones interpersonales, son costos computacionales adicionales para los modelos lingüísticos. El precio de la cortesía humana Altman mencionó en la publicación que estas palabras educadas cuestan decenas de millones de dólares para responder, y se entiende que los grandes modelos de lenguaje como ChatGPT procesan las indicaciones de entrada del usuario dividiendo el texto en las unidades más pequeñas llamadas tokens para comprender y generar. Un token puede formar parte de una palabra, una palabra completa o un signo de puntuación. Cuanto más larga sea la solicitud de entrada del usuario, más tokens se incluirán, y el modelo necesita consumir una cierta cantidad de recursos informáticos para procesar cada token, lo que puede ser solo una pequeña parte de la sobrecarga general de OpenAI (incluido el entrenamiento del modelo, el mantenimiento del servidor, la inversión en investigación y desarrollo, etc.), pero revela que incluso los patrones de comportamiento de los usuarios pequeños pueden tener un impacto económico significativo en las aplicaciones de IA a gran escala. Tokens Energy Economics Cuando un usuario introduce una pregunta o instrucción en ChatGPT, el sistema primero divide su texto en secuencias de fichas, como "¿Por favor, dígame cómo está el tiempo hoy?" Se puede dividir en cosas como ["por favor", "dime", "yo", "hoy", "el tiempo", "cómo", "?? ] tal ficha. Y un comando más conciso: "¿El clima de hoy?" Solo se puede dividir en ["hoy", "el tiempo", "?" ], que significa lo mismo, y puede consumir costos adicionales dependiendo del número de etimología. A continuación, el modelo realiza una fase de "inferencia" basada en el número de etimologías, normalmente cuantos más tokens se introduzcan, más información inicial necesitará procesar el modelo, y las entradas más largas a veces pueden dar lugar a respuestas más largas, lo que aumenta aún más la cantidad de cálculo en la salida. El procesamiento de cada token requiere una GPU potente para las operaciones matriciales. Sin embargo, muchos usuarios han respondido a los comentarios de Ultraman, además del problema del costo, los humanos en realidad proyectan la necesidad de cortesía en las palabras a la inteligencia artificial, lo que puede ser la razón por la que la capacidad de diálogo de ChatGPT es muy fluida y natural, lo que facilita que los usuarios lo vean inconscientemente como un compañero de conversación similar al humano. Ambos humanos han establecido normas profundamente arraigadas, como la comunicación en la sociedad, y también es un costo adicional para los humanos abandonar estas normas debido a las máquinas, y también pueden seguir inconscientemente estas normas, y los métodos de preguntas más educados pueden ayudar a obtener respuestas más amistosas o cooperativas, que a su vez pueden lograr el objetivo de responder de manera más satisfactoria para los humanos. Con todo, es interesante hablar de que ChatGPT agrega millones de dólares en costos debido a la cortesía del usuario desde la perspectiva de Altman, revelando no solo los asombrosos costos computacionales detrás de los servicios de IA a gran escala, sino también la presión sobre los proveedores de servicios para suministrar potencia de cómputo. Y la demanda de los usuarios también ha empujado a los modelos a convertirse en resultados más naturales y, en general, en la era de la inteligencia artificial y los modelos lingüísticos, los consumidores pueden ser los mayores ganadores. Artículos relacionados ¡GPT-5 pospuesto! OpenAI primero empuja o3, o4-mini, Sam Altman revelado: la integración es más difícil de lo imaginado OpenAI anunciado: Open Agents SDK es compatible con MCP, conecta todo y da un paso clave OpenAI desbloquea Deep Research: los usuarios de pago pueden consultar 10 veces al mes, Microsoft lanza el agente de IA multimodal Magma (Sam Altman: OpenAI gasta decenas de millones de dólares en respuesta a los usuarios de ChatGPT "por favor, Gracias" en la palabra〉Este artículo se publicó por primera vez en "Dynamic Trend - The Most Influential Blockchain News Media" de BlockTempo.
El contenido es solo de referencia, no una solicitud u oferta. No se proporciona asesoramiento fiscal, legal ni de inversión. Consulte el Descargo de responsabilidad para obtener más información sobre los riesgos.
Sam Altman: OpenAI gastó millones de dólares en responder a las palabras "por favor, gracias" de los usuarios de ChatGPT.
El CEO de OpenAI, Sam Altman, revela un hecho sorprendente: el uso excesivamente educado de ChatGPT por parte de los usuarios del mundo le está costando al gigante de la IA millones de dólares más cada año debido al aumento invisible de los costos computacionales. (Sinopsis: OpenAI lanza o3 y o4-mini El modelo de inferencia más fuerte: puede pensar en imágenes, seleccionar herramientas automáticamente y superar el rendimiento matemático y de codificación) (Suplemento de antecedentes: OpenAI crea en secreto su propia plataforma comunitaria, apuntando a la X de Musk) En el campo de la inteligencia artificial, la eficiencia y el control de costos son temas eternos, y Sam Altman, CEO de OpenAI, señaló recientemente una fuente inesperada de costos en una conversación pública: Lenguaje educado por parte del usuario. Altman dijo que cuando muchos usuarios usan ChatGPT, habitualmente agregan "por favor", "gracias", "por favor pueden ayudarme... ¿Lo es? y otras palabras corteses, aunque significativas en las relaciones interpersonales, son costos computacionales adicionales para los modelos lingüísticos. El precio de la cortesía humana Altman mencionó en la publicación que estas palabras educadas cuestan decenas de millones de dólares para responder, y se entiende que los grandes modelos de lenguaje como ChatGPT procesan las indicaciones de entrada del usuario dividiendo el texto en las unidades más pequeñas llamadas tokens para comprender y generar. Un token puede formar parte de una palabra, una palabra completa o un signo de puntuación. Cuanto más larga sea la solicitud de entrada del usuario, más tokens se incluirán, y el modelo necesita consumir una cierta cantidad de recursos informáticos para procesar cada token, lo que puede ser solo una pequeña parte de la sobrecarga general de OpenAI (incluido el entrenamiento del modelo, el mantenimiento del servidor, la inversión en investigación y desarrollo, etc.), pero revela que incluso los patrones de comportamiento de los usuarios pequeños pueden tener un impacto económico significativo en las aplicaciones de IA a gran escala. Tokens Energy Economics Cuando un usuario introduce una pregunta o instrucción en ChatGPT, el sistema primero divide su texto en secuencias de fichas, como "¿Por favor, dígame cómo está el tiempo hoy?" Se puede dividir en cosas como ["por favor", "dime", "yo", "hoy", "el tiempo", "cómo", "?? ] tal ficha. Y un comando más conciso: "¿El clima de hoy?" Solo se puede dividir en ["hoy", "el tiempo", "?" ], que significa lo mismo, y puede consumir costos adicionales dependiendo del número de etimología. A continuación, el modelo realiza una fase de "inferencia" basada en el número de etimologías, normalmente cuantos más tokens se introduzcan, más información inicial necesitará procesar el modelo, y las entradas más largas a veces pueden dar lugar a respuestas más largas, lo que aumenta aún más la cantidad de cálculo en la salida. El procesamiento de cada token requiere una GPU potente para las operaciones matriciales. Sin embargo, muchos usuarios han respondido a los comentarios de Ultraman, además del problema del costo, los humanos en realidad proyectan la necesidad de cortesía en las palabras a la inteligencia artificial, lo que puede ser la razón por la que la capacidad de diálogo de ChatGPT es muy fluida y natural, lo que facilita que los usuarios lo vean inconscientemente como un compañero de conversación similar al humano. Ambos humanos han establecido normas profundamente arraigadas, como la comunicación en la sociedad, y también es un costo adicional para los humanos abandonar estas normas debido a las máquinas, y también pueden seguir inconscientemente estas normas, y los métodos de preguntas más educados pueden ayudar a obtener respuestas más amistosas o cooperativas, que a su vez pueden lograr el objetivo de responder de manera más satisfactoria para los humanos. Con todo, es interesante hablar de que ChatGPT agrega millones de dólares en costos debido a la cortesía del usuario desde la perspectiva de Altman, revelando no solo los asombrosos costos computacionales detrás de los servicios de IA a gran escala, sino también la presión sobre los proveedores de servicios para suministrar potencia de cómputo. Y la demanda de los usuarios también ha empujado a los modelos a convertirse en resultados más naturales y, en general, en la era de la inteligencia artificial y los modelos lingüísticos, los consumidores pueden ser los mayores ganadores. Artículos relacionados ¡GPT-5 pospuesto! OpenAI primero empuja o3, o4-mini, Sam Altman revelado: la integración es más difícil de lo imaginado OpenAI anunciado: Open Agents SDK es compatible con MCP, conecta todo y da un paso clave OpenAI desbloquea Deep Research: los usuarios de pago pueden consultar 10 veces al mes, Microsoft lanza el agente de IA multimodal Magma (Sam Altman: OpenAI gasta decenas de millones de dólares en respuesta a los usuarios de ChatGPT "por favor, Gracias" en la palabra〉Este artículo se publicó por primera vez en "Dynamic Trend - The Most Influential Blockchain News Media" de BlockTempo.