Cuando se trata de implementar modelos de lenguaje en escenarios del mundo real, las compensaciones en hardware y rendimiento son tan importantes como la capacidad bruta.
OSS120B ofrece un razonamiento local impresionante, pero tiene un coste—estás mirando aproximadamente 120GB de RAM solo para que funcione sin problemas. Eso no es exactamente portátil. OSS20B alcanza el punto ideal para la mayoría de los casos de uso; obtienes un rendimiento sólido sin necesidad de un centro de datos en tu sótano.
Mistral-7B funciona muy bien para tareas conversacionales, aunque tiene dificultades con la fundamentación de documentos y tiende a alucinar si le proporcionas información en la que no fue entrenado explícitamente. ¿Llama? ¿Honestamente? Parece poco impresionante en comparación con las alternativas de código abierto más nuevas de tamaños similares. El ecosistema ha avanzado rápidamente, y algunos de los jugadores más nuevos simplemente lo están haciendo mejor.
La verdadera lección: el tamaño no lo es todo. El contexto, la calidad de los datos de entrenamiento y la eficiencia práctica importan más de lo que piensas.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
13 me gusta
Recompensa
13
4
Republicar
Compartir
Comentar
0/400
FallingLeaf
· hace6h
120GB de memoria para correr modelos? ¡En casa realmente no cabe jajaja
---
OSS20B es realmente increíble, el techo en relación calidad-precio, no necesitas un servidor completo
---
Llama ahora mismo realmente está algo en desuso, los modelos nuevos realmente son más potentes
---
No pienses siempre en acumular parámetros, la calidad de los datos de entrenamiento es lo que realmente importa
---
Mistral-7B para chat está bien, pero en cuanto a documentos empieza a decir tonterías, quien lo use lo sabe
---
Cómo equilibrar los costos de hardware y los resultados, esa es la verdadera cuestión
Ver originalesResponder0
MEVictim
· hace22h
120GB de RAM para correr OSS120B? Despierta, amigo, esto no es una implementación local, es un centro de datos local.
Aún así, OSS20B sigue siendo más atractivo, la mejor solución para entornos de producción reales.
El problema de ilusión de Mistral es realmente molesto... Cuando recibe datos desconocidos, empieza a inventar historias.
Llama realmente está siendo aplastado por los novatos, el ecosistema es así de cruel.
Hablando de eso, el tamaño del modelo realmente no es tan importante, la calidad de los datos de entrenamiento > todo, esa es la verdadera limitación.
Ver originalesResponder0
GasFeeCrybaby
· hace22h
120GB de RAM para correr 120B? ¿De qué servidor es esto? Mi pobre ordenador se ha quedado en pedazos, jaja
OSS20B es realmente impresionante, tiene una relación calidad-precio excelente. Por cierto, Llama ahora mismo está un poco atrasado, lo que ha salido nuevo lo supera en segundos
Eso sí que es la verdad, no basta solo con acumular parámetros
Ver originalesResponder0
StealthDeployer
· hace22h
¿120GB usando un modelo local? Ríe, tengo que vender el ordenador roto en casa
---
OSS20B es efectivamente fragante, pero el verdadero cuello de botella es la calidad de los datos
---
Llama está tirando un poco de la lista ahora, y los nuevos modelos lo están colgando
---
No te limites a la cantidad de parámetros, la ventana de contexto y la eficiencia de inferencia son la verdadera productividad
---
Mistral está molesto cuando se trata de problemas de alucinaciones, y esto no es adecuado para la producción ni para la protección ambiental
---
¿Quién pagará el coste de 120GB? Para ser francos, los equipos pequeños y medianos no pueden permitirse jugar
---
Por eso ahora estoy mirando soluciones de cuantización, que pueden ahorrar la mitad de la memoria
Cuando se trata de implementar modelos de lenguaje en escenarios del mundo real, las compensaciones en hardware y rendimiento son tan importantes como la capacidad bruta.
OSS120B ofrece un razonamiento local impresionante, pero tiene un coste—estás mirando aproximadamente 120GB de RAM solo para que funcione sin problemas. Eso no es exactamente portátil. OSS20B alcanza el punto ideal para la mayoría de los casos de uso; obtienes un rendimiento sólido sin necesidad de un centro de datos en tu sótano.
Mistral-7B funciona muy bien para tareas conversacionales, aunque tiene dificultades con la fundamentación de documentos y tiende a alucinar si le proporcionas información en la que no fue entrenado explícitamente. ¿Llama? ¿Honestamente? Parece poco impresionante en comparación con las alternativas de código abierto más nuevas de tamaños similares. El ecosistema ha avanzado rápidamente, y algunos de los jugadores más nuevos simplemente lo están haciendo mejor.
La verdadera lección: el tamaño no lo es todo. El contexto, la calidad de los datos de entrenamiento y la eficiencia práctica importan más de lo que piensas.