Está bien, hablando en serio - me emocioné un poco demasiado con ARC-AGI la última vez. Pero aquí está lo que realmente hemos logrado con MSRA, y sinceramente? Todavía vale la pena celebrarlo.
**Qué está realmente funcionando:** Estamos alcanzando 180,000 tokens por segundo durante las sesiones de entrenamiento, y sí, eso es en GPUs de grado de consumo. Además, estamos viendo una precisión perfecta en la detección de contexto que abarca 7 diferentes escenarios de razonamiento. Sin adornos, solo números verificados.
A veces las verdaderas victorias son más silenciosas de lo que esperas.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
13 me gusta
Recompensa
13
5
Republicar
Compartir
Comentar
0/400
ETH_Maxi_Taxi
· hace14h
Una GPU de consumo que genera estos datos, realmente tiene algo interesante, pero aún hay que ver si puede mantenerse estable en el futuro.
Ver originalesResponder0
SpeakWithHatOn
· 11-15 12:15
180k token/s corriendo en GPU de consumo, esto es lo real.
Ver originalesResponder0
MercilessHalal
· 11-15 12:08
¿180,000 tokens por segundo? Se puede ejecutar con una GPU de consumo, esto realmente tiene algo.
Ver originalesResponder0
MagicBean
· 11-15 12:06
¿Una GPU de consumo alcanza esta velocidad? Hay que ver cómo son los datos de rendimiento reales, no vaya a ser otro truco del entorno de laboratorio.
Ver originalesResponder0
ETHmaxi_NoFilter
· 11-15 11:54
¿Una GPU de consumo corriendo a 180k token/s? ¡Esta es una verdadera victoria ingenieril, mucho más concreta que ser increíble!
Está bien, hablando en serio - me emocioné un poco demasiado con ARC-AGI la última vez. Pero aquí está lo que realmente hemos logrado con MSRA, y sinceramente? Todavía vale la pena celebrarlo.
**Qué está realmente funcionando:**
Estamos alcanzando 180,000 tokens por segundo durante las sesiones de entrenamiento, y sí, eso es en GPUs de grado de consumo. Además, estamos viendo una precisión perfecta en la detección de contexto que abarca 7 diferentes escenarios de razonamiento. Sin adornos, solo números verificados.
A veces las verdaderas victorias son más silenciosas de lo que esperas.