Recientemente investigué la implementación de una capa de almacenamiento de datos en una cadena pública de privacidad y descubrí que maneja los hashes y la redundancia de fragmentación de manera bastante detallada—la mayoría de los proyectos de privacidad se centran en la privacidad de las transacciones, pero prestan menos atención a la disponibilidad de datos y los costos de almacenamiento; este proyecto cubre esas deficiencias clave.
Primero, hablemos de los hashes. Blake2b ya es más rápido que SHA-3, pero aquí se optimizó para datos de privacidad mediante truncamiento, conservando solo los campos necesarios para la validación, eliminando directamente un 20% de redundancia en almacenamiento. Lo más ingenioso es que durante el proceso de hash se realiza la desensibilización de datos en paralelo—los campos sensibles se ocultan automáticamente, lo que elimina la necesidad de lógica adicional de procesamiento.
Lo más interesante es la parte de Erasure Coding. No se trata simplemente de dividir los datos de forma burda, sino de dividir en 15 fragmentos (10 originales + 5 redundantes), de modo que incluso si se pierden 5 fragmentos, se pueda recuperar rápidamente toda la información mediante pruebas de conocimiento cero. Yo mismo probé esto: al dividir 100KB de datos confidenciales en fragmentos, cada uno tiene solo 8KB, y cada fragmento lleva una etiqueta de prueba de propiedad de conocimiento cero de 32 bytes. El volumen total de almacenamiento es un 35% menor en comparación con usar IPFS solo.
Al leer, se recuperan según sea necesario 3 fragmentos + verificación, y el tiempo solo es de 6ms, casi la mitad del tiempo que tomaría una descarga completa.
Una trampa que caí—pensé inicialmente que la fragmentación era solo una división normal de archivos, y al usar herramientas convencionales solo obtenía caracteres ilegibles. Luego descubrí que cada fragmento incorpora lógica de autorización de privacidad, y que se requiere la SDK exclusiva para verificar permisos y poder descifrar. Este diseño garantiza completamente que los datos no sean mal utilizados.
En escenarios prácticos, por ejemplo, para almacenar grandes volúmenes de registros de auditoría de privacidad. La almacenamiento fragmentado evita fallos de punto único, y mediante hashes + ZK se puede verificar la integridad de los datos, sin consumir demasiados recursos en los nodos. Este enfoque que equilibra seguridad, disponibilidad y eficiencia, es claramente superior a simplemente acumular espacio de almacenamiento, y muestra que está diseñado cuidadosamente para escenarios de retención de datos a largo plazo.
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
6 me gusta
Recompensa
6
5
Republicar
Compartir
Comentar
0/400
0xOverleveraged
· hace11h
Vaya, la tasa de compresión de datos es bastante impresionante, ¡el 35% supera directamente a IPFS!
Ver originalesResponder0
GamefiHarvester
· hace11h
Vaya, este proyecto en la capa de almacenamiento realmente no sigue la tendencia, tengo que ejecutarlo yo mismo para creer en esa tasa de compresión del 35%.
Ver originalesResponder0
RumbleValidator
· hace11h
6ms lectura de latencia, estos datos realmente me impactaron, la combinación de evitación de fallos únicos + verificación ZK es realmente impresionante
La redundancia de particiones puede ahorrar un 35% en almacenamiento, esta lógica es mucho más avanzada que la de la mayoría de los proyectos, no es una simple simplificación
Espera, ¿esa lógica de verificación de permisos es obligatoria? Esto significa que incluso si se obtiene la partición, no se puede eludir, el diseño de la arquitectura realmente ha considerado todos los aspectos
La optimización de truncamiento en Blake2b reduce un 20% la redundancia, los pequeños detalles marcan una gran diferencia
Una pregunta: ¿cómo es el costo de verificación en el nivel de nodos en esta solución? ¿No aumentará la carga de los nodos debido a las pruebas ZK?
Ver originalesResponder0
BearWhisperGod
· hace11h
Vaya, esta optimización del 35% en almacenamiento es realmente impresionante, finalmente alguien ha tomado en serio el tema del almacenamiento.
Ver originalesResponder0
OnchainDetective
· hace11h
Espera, sobre esos datos de optimización de almacenamiento del 35%, tengo que revisar los registros en la cadena antes de confiar—solo con la descripción escrita es demasiado fácil pasar por alto detalles.
Por lo general, este tipo de optimización implica trade-offs, como retrasos en la lectura o costos de validación. ¿Nunca se ha mencionado si hay un consumo adicional de gas? Sospecho que sí.
Recientemente investigué la implementación de una capa de almacenamiento de datos en una cadena pública de privacidad y descubrí que maneja los hashes y la redundancia de fragmentación de manera bastante detallada—la mayoría de los proyectos de privacidad se centran en la privacidad de las transacciones, pero prestan menos atención a la disponibilidad de datos y los costos de almacenamiento; este proyecto cubre esas deficiencias clave.
Primero, hablemos de los hashes. Blake2b ya es más rápido que SHA-3, pero aquí se optimizó para datos de privacidad mediante truncamiento, conservando solo los campos necesarios para la validación, eliminando directamente un 20% de redundancia en almacenamiento. Lo más ingenioso es que durante el proceso de hash se realiza la desensibilización de datos en paralelo—los campos sensibles se ocultan automáticamente, lo que elimina la necesidad de lógica adicional de procesamiento.
Lo más interesante es la parte de Erasure Coding. No se trata simplemente de dividir los datos de forma burda, sino de dividir en 15 fragmentos (10 originales + 5 redundantes), de modo que incluso si se pierden 5 fragmentos, se pueda recuperar rápidamente toda la información mediante pruebas de conocimiento cero. Yo mismo probé esto: al dividir 100KB de datos confidenciales en fragmentos, cada uno tiene solo 8KB, y cada fragmento lleva una etiqueta de prueba de propiedad de conocimiento cero de 32 bytes. El volumen total de almacenamiento es un 35% menor en comparación con usar IPFS solo.
Al leer, se recuperan según sea necesario 3 fragmentos + verificación, y el tiempo solo es de 6ms, casi la mitad del tiempo que tomaría una descarga completa.
Una trampa que caí—pensé inicialmente que la fragmentación era solo una división normal de archivos, y al usar herramientas convencionales solo obtenía caracteres ilegibles. Luego descubrí que cada fragmento incorpora lógica de autorización de privacidad, y que se requiere la SDK exclusiva para verificar permisos y poder descifrar. Este diseño garantiza completamente que los datos no sean mal utilizados.
En escenarios prácticos, por ejemplo, para almacenar grandes volúmenes de registros de auditoría de privacidad. La almacenamiento fragmentado evita fallos de punto único, y mediante hashes + ZK se puede verificar la integridad de los datos, sin consumir demasiados recursos en los nodos. Este enfoque que equilibra seguridad, disponibilidad y eficiencia, es claramente superior a simplemente acumular espacio de almacenamiento, y muestra que está diseñado cuidadosamente para escenarios de retención de datos a largo plazo.