Zhipu publicó una carta de disculpa por el Plan de Codificación GLM el 21 de febrero, y anunció un plan de gestión y compensación.
Zhipu afirmó que esta actualización cometió principalmente tres errores: falta de transparencia en las reglas, ritmo de implementación de GLM-5 demasiado lento y un diseño deficiente del mecanismo de actualización para usuarios antiguos.
Zhipu explicó que, tras el lanzamiento de GLM-5, el tráfico superó las expectativas, y el ritmo de expansión de la compañía no pudo seguirle el paso, por lo que se abrió gradualmente GLM-5 en orden de Max, Pro y Lite. Actualmente, los usuarios de Max ya tienen acceso completo, aunque los usuarios de Pro, aunque ya están habilitados, podrían experimentar limitaciones durante las horas pico debido a la alta carga del clúster. Los usuarios de Lite serán habilitados gradualmente en horarios no pico después de las vacaciones. Para los usuarios de Lite y Pro afectados, la compañía apoya solicitudes de reembolso autónomas.
Es importante destacar que el 20 de febrero, las acciones de Zhipu, líder en grandes modelos de IA (02513.HK), cerraron en alza contraria a la tendencia, con un aumento del 42.72% en un solo día, alcanzando los 725 dólares de Hong Kong, estableciendo un nuevo máximo histórico y alcanzando una capitalización de mercado de 323.2 mil millones de dólares de Hong Kong. En 43 días desde su cotización, el precio de las acciones ha subido un 524% respecto a los 116.2 dólares de Hong Kong de la oferta pública inicial.
El 20 de febrero, Kuaishou (01024.HK) cerró con una caída del 2.78%, con una capitalización de mercado de 289.4 mil millones de dólares de Hong Kong; JD.com (09618.HK) cayó cerca del 2%, con una capitalización de 330.9 mil millones de dólares de Hong Kong; Ctrip (09961.HK) cayó cerca del 1%, con una capitalización de 296.7 mil millones de dólares de Hong Kong; Baidu Group (09888.HK) cayó un 6.25%, con una capitalización de 354.8 mil millones de dólares de Hong Kong. Esto significa que Zhipu ya se encuentra en el primer nivel en términos de valor de mercado en el sector TMT de las acciones en Hong Kong.
Zhipu lanzó oficialmente su nuevo modelo insignia GLM-5 el 12 de febrero, con un rendimiento promedio en escenarios de programación superior al 20% respecto a la generación anterior, acercándose a la experiencia de programación real al nivel de Claude Opus 4.5. En las evaluaciones de agentes BrowseComp, MCP-Atlas y τ2-Bench, logró el mejor rendimiento en el campo del código abierto.
Tras el lanzamiento de GLM-5, debido a la alta demanda, Zhipu aumentó el precio del plan de codificación GLM al día siguiente, con un incremento del 30% en China y más del 100% en el extranjero, convirtiéndose en la primera empresa nativa de IA en China en aumentar los precios de sus servicios de modelos a gran escala. El nuevo plan se agotó inmediatamente, estableciendo un nuevo récord en la industria por la venta de paquetes de pago de modelos de IA de fabricación nacional.
Zhipu fue fundada en 2019, derivada del Laboratorio de Ingeniería del Conocimiento de la Universidad Tsinghua (KEG, uno de los principales laboratorios de IA en China). El profesor Tang Jie, del Departamento de Computación de Tsinghua, es el científico jefe; el doctor Zhang Peng, líder en innovación en ingeniería, es CEO y director general; y Liu Debing, exalumno de Tsinghua, es el presidente.
Esta compañía es conocida como “el OpenAI de China” y es la principal competidora de OpenAI. A finales de 2020, desarrolló la arquitectura de preentrenamiento GLM; en 2021, completó el entrenamiento del modelo de 10 mil millones de parámetros GLM-10B, y en ese mismo año, utilizó la arquitectura MoE para entrenar con éxito un modelo disperso de billones de parámetros que converge; en 2022, lanzó el modelo de preentrenamiento multilingüe en chino e inglés de más de 100 mil millones de parámetros, GLM-130B, y lo hizo de código abierto, siendo el único modelo principal en Asia incluido en la evaluación de Stanford en 2022.
Texto completo de la disculpa de Zhipu:
(Procedencia: Daily Economic News)
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
El líder en modelos de IA, Zhipu, se disculpa y anuncia planes de gestión y compensación
Zhipu publicó una carta de disculpa por el Plan de Codificación GLM el 21 de febrero, y anunció un plan de gestión y compensación.
Zhipu afirmó que esta actualización cometió principalmente tres errores: falta de transparencia en las reglas, ritmo de implementación de GLM-5 demasiado lento y un diseño deficiente del mecanismo de actualización para usuarios antiguos.
Zhipu explicó que, tras el lanzamiento de GLM-5, el tráfico superó las expectativas, y el ritmo de expansión de la compañía no pudo seguirle el paso, por lo que se abrió gradualmente GLM-5 en orden de Max, Pro y Lite. Actualmente, los usuarios de Max ya tienen acceso completo, aunque los usuarios de Pro, aunque ya están habilitados, podrían experimentar limitaciones durante las horas pico debido a la alta carga del clúster. Los usuarios de Lite serán habilitados gradualmente en horarios no pico después de las vacaciones. Para los usuarios de Lite y Pro afectados, la compañía apoya solicitudes de reembolso autónomas.
Es importante destacar que el 20 de febrero, las acciones de Zhipu, líder en grandes modelos de IA (02513.HK), cerraron en alza contraria a la tendencia, con un aumento del 42.72% en un solo día, alcanzando los 725 dólares de Hong Kong, estableciendo un nuevo máximo histórico y alcanzando una capitalización de mercado de 323.2 mil millones de dólares de Hong Kong. En 43 días desde su cotización, el precio de las acciones ha subido un 524% respecto a los 116.2 dólares de Hong Kong de la oferta pública inicial.
El 20 de febrero, Kuaishou (01024.HK) cerró con una caída del 2.78%, con una capitalización de mercado de 289.4 mil millones de dólares de Hong Kong; JD.com (09618.HK) cayó cerca del 2%, con una capitalización de 330.9 mil millones de dólares de Hong Kong; Ctrip (09961.HK) cayó cerca del 1%, con una capitalización de 296.7 mil millones de dólares de Hong Kong; Baidu Group (09888.HK) cayó un 6.25%, con una capitalización de 354.8 mil millones de dólares de Hong Kong. Esto significa que Zhipu ya se encuentra en el primer nivel en términos de valor de mercado en el sector TMT de las acciones en Hong Kong.
Zhipu lanzó oficialmente su nuevo modelo insignia GLM-5 el 12 de febrero, con un rendimiento promedio en escenarios de programación superior al 20% respecto a la generación anterior, acercándose a la experiencia de programación real al nivel de Claude Opus 4.5. En las evaluaciones de agentes BrowseComp, MCP-Atlas y τ2-Bench, logró el mejor rendimiento en el campo del código abierto.
Tras el lanzamiento de GLM-5, debido a la alta demanda, Zhipu aumentó el precio del plan de codificación GLM al día siguiente, con un incremento del 30% en China y más del 100% en el extranjero, convirtiéndose en la primera empresa nativa de IA en China en aumentar los precios de sus servicios de modelos a gran escala. El nuevo plan se agotó inmediatamente, estableciendo un nuevo récord en la industria por la venta de paquetes de pago de modelos de IA de fabricación nacional.
Zhipu fue fundada en 2019, derivada del Laboratorio de Ingeniería del Conocimiento de la Universidad Tsinghua (KEG, uno de los principales laboratorios de IA en China). El profesor Tang Jie, del Departamento de Computación de Tsinghua, es el científico jefe; el doctor Zhang Peng, líder en innovación en ingeniería, es CEO y director general; y Liu Debing, exalumno de Tsinghua, es el presidente.
Esta compañía es conocida como “el OpenAI de China” y es la principal competidora de OpenAI. A finales de 2020, desarrolló la arquitectura de preentrenamiento GLM; en 2021, completó el entrenamiento del modelo de 10 mil millones de parámetros GLM-10B, y en ese mismo año, utilizó la arquitectura MoE para entrenar con éxito un modelo disperso de billones de parámetros que converge; en 2022, lanzó el modelo de preentrenamiento multilingüe en chino e inglés de más de 100 mil millones de parámetros, GLM-130B, y lo hizo de código abierto, siendo el único modelo principal en Asia incluido en la evaluación de Stanford en 2022.
Texto completo de la disculpa de Zhipu:
(Procedencia: Daily Economic News)