Despedirse del mito del almacenamiento permanente, Walrus está reestructurando la lógica de costo-efectividad de los datos Blob
Recientemente he estado experimentando con varias soluciones de almacenamiento de datos en esas cadenas de bloques públicas, y para ser sincero, aunque la narrativa de almacenamiento permanente de Arweave es grandiosa, para aplicaciones de GameFi o sociales con interacciones frecuentes, el costo realmente puede ser un desincentivo. En estos días he estado probando la red de prueba de Walrus y siento que el enfoque de Mysten Labs es muy preciso; no ha ido de manera rígida por el tema de la “permanencia”, sino que se ha centrado en la implementación de la tecnología de códigos de corrección de errores y la compresión extrema de costos de almacenamiento. He lanzado varios G de metadatos de NFT y he notado que la forma en que maneja los datos Blob es muy ingeniosa, no depende exclusivamente de la replicación de nodos completos, sino que dispersa los fragmentos de datos, de modo que incluso si algunos nodos se desconectan, se puede restaurar la información a través de métodos matemáticos, lo cual es esencialmente diferente de la lógica de pilas de las máquinas mineras de Filecoin.
Durante el proceso de ejecutar comandos en la línea de comandos, aunque la documentación inicial estaba un poco demasiado orientada a los entusiastas, e incluso hubo algunos errores en ciertos parámetros que me hicieron investigar durante un buen rato, la velocidad de carga realmente me sorprendió. En comparación con el dolor de cabeza que implica mantener un servicio de Pinning en IPFS, la experiencia de Walrus de “almacenar y salir” se aproxima más a los servicios S3 de Web2. Sin embargo, los problemas actuales son evidentes; la velocidad de lectura puede fluctuar en ciertos entornos de red específicos, y las reglas de incentivos actuales no son lo suficientemente claras, lo que representa un factor de incertidumbre para los nodos que desean conectarse a largo plazo. Si solo se trata de hacer copias de seguridad, su arquitectura actual es más que suficiente, e incluso se puede decir que en la distribución de archivos grandes tiene una mejor relación costo-efectividad que soluciones como Celestia, que se centran en la capa de DA. Espero que en el futuro se pueda mejorar esta documentación de desarrollo, ya que el umbral actual no es lo suficientemente amigable para los principiantes; después de todo, aunque la tecnología sea potente, debe ser fácil de usar para todos. La impresión que tengo estos días al ejecutar datos es que, en lugar de perseguir lo caro de la “eternidad”, es mejor abrazar esta “seguridad probabilística” eficiente y económica, que es el requisito previo para una adopción masiva.



