Kezdőlap
Értesítés
Profil
Népszerű cikkek
Hírek
Könyvjelzők
Előzmények
Alkotói központ
Beállítások
W-BEN
4.4k
Bejegyzések
W-BEN
Ellenőrzött tartalomkészítő
Jelentés
Felhasználó tiltása
Követés
热爱生活,专注币安!币安超级返佣邀请码:BEN8888
GAIN-tulajdonos
Kiemelkedően aktív kereskedő
2 év
996
Követés
60.3K+
Követők
37.9K+
Kedvelve
3.0K+
Megosztva
Bejegyzések
Összes
Hivatkozások
Videók
Élő
W-BEN
·
--
最近都在聊去中心化存储,但我发现很多人对Arweave的永久存储叙事有点过于迷信了。永久存储确实听起来很性感,但在这个数据爆炸的时代,绝大多数数据根本不配被存一万年,Arweave那种一次付费永久存储的模型导致前期门槛极高,对于高频交互的DApp来说简直是灾难。这几天深度体验了Walrus的测试网,给我的感觉完全不同,它没有试图去卖那种宏大的永久叙事,而是非常务实地解决了一个核心痛点,怎么在保持去中心化的前提下让存储变得便宜且易于检索。这就要提到它的架构设计了,跟Filecoin那种笨重的封装证明不同,Walrus利用Sui的架构优势,把存储和共识层做了很巧妙的解耦。 我在测试上传Blob数据的时候,明显感觉到速度比Filecoin快了不止一个量级,这归功于它采用的纠删码技术,不用像IPFS那样必须依赖某个节点一直在线做Pinning。IPFS最让人头大的就是节点流失导致数据找不回,而Walrus只要全网有一部分分片在,数据就能重构,这种鲁棒性才是企业级应用敢进场的关键。相比之下,Celestia虽然也做DA层,但它的定位更偏向于为Rollup服务,而Walrus显然想通吃非结构化数据,不管是NFT图片还是前端代码,这种通用性让我看到了早期AWS S3的影子。当然现在的CLI工具还比较简陋,报错提示也很迷,对于非技术背景的用户极其不友好,这算是一个明显的槽点,希望主网别这么硬核。不过回过头看,这种将存储成本压低并结合Sui Move可编程性的路子,确实比单纯卖硬盘空间更有想象力。 @WalrusProtocol $WAL {future}(WALUSDT) #Walrus
最近都在聊去中心化存储,但我发现很多人对Arweave的永久存储叙事有点过于迷信了。永久存储确实听起来很性感,但在这个数据爆炸的时代,绝大多数数据根本不配被存一万年,Arweave那种一次付费永久存储的模型导致前期门槛极高,对于高频交互的DApp来说简直是灾难。这几天深度体验了Walrus的测试网,给我的感觉完全不同,它没有试图去卖那种宏大的永久叙事,而是非常务实地解决了一个核心痛点,怎么在保持去中心化的前提下让存储变得便宜且易于检索。这就要提到它的架构设计了,跟Filecoin那种笨重的封装证明不同,Walrus利用Sui的架构优势,把存储和共识层做了很巧妙的解耦。
我在测试上传Blob数据的时候,明显感觉到速度比Filecoin快了不止一个量级,这归功于它采用的纠删码技术,不用像IPFS那样必须依赖某个节点一直在线做Pinning。IPFS最让人头大的就是节点流失导致数据找不回,而Walrus只要全网有一部分分片在,数据就能重构,这种鲁棒性才是企业级应用敢进场的关键。相比之下,Celestia虽然也做DA层,但它的定位更偏向于为Rollup服务,而Walrus显然想通吃非结构化数据,不管是NFT图片还是前端代码,这种通用性让我看到了早期AWS S3的影子。当然现在的CLI工具还比较简陋,报错提示也很迷,对于非技术背景的用户极其不友好,这算是一个明显的槽点,希望主网别这么硬核。不过回过头看,这种将存储成本压低并结合Sui Move可编程性的路子,确实比单纯卖硬盘空间更有想象力。
@Walrus 🦭/acc
$WAL
#Walrus
WAL
SUI
AR
W-BEN
·
--
别再迷信Filecoin的算力堆叠了,Walrus这种把数据切碎了扔进Sui的暴力美学才是存储的终局我们这一代搞技术的,哪怕是混迹币圈多年的老油条,也容易被永久存储或者人类文明的数字方舟这种宏大叙事冲昏头脑。前几天我闲得发慌,把刚放出来的Walrus白皮书和技术文档啃了一遍,顺手在测试网跑了几个G的数据,这时候我才意识到Sui生态下的这个Walrus根本不是想做什么去中心化的图书馆,它就是个彻头彻尾的实用主义者,甚至可以说它是个精明的数学家。很多在此之前看过去中心化存储项目的人,脑子里的模型大概率还停留在Filecoin或者Arweave的阶段。Filecoin那是典型的大力出奇迹,为了证明我存了你的数据,我要搞PoRep复制证明,我要搞PoSt时空证明,结果就是为了存1TB的真实数据,全网可能要消耗几十倍的算力和存储空间去维持这个共识。这在工程上其实是非常丑陋的,虽然它保证了去中心化,但成本高得离谱。而Walrus那帮搞技术的明显是受够了这种低效。他们掏出了一个叫Red Stuff的算法,这名字听起来挺随意的,像极了某个程序员半夜写代码饿了想点的披萨名字,但内核其实是二维纠删码的变体。 我为什么说它精明,因为在Walrus的架构里,文件不再是文件,而是被切碎成了Blob也就是二进制大对象。你上传一个视频,Walrus不会傻乎乎地把这个视频完整地复制到几十个节点上。相反它用纠删码把文件切成碎块,我们叫它Slivers。最妙的地方在于这种二维编码允许网路在丢失一部分分片甚至一部分节点作恶的情况下,依然能快速恢复出原始数据。它的副本率只有4倍到5倍左右,相比于Filecoin那种动不动十几二十倍的冗余,这简直就是降维打击。这意味着什么,意味着在同样的硬件成本下,Walrus能存更多的数据,这才是商业竞争的核心。我在测试网上传数据的时候明显感觉到那种轻量感,不需要等待复杂的封装过程,数据丢进去,编码,分发,结束。这就像是你原来寄快递要给每个箱子装GPS定位还要每小时汇报位置,现在直接把东西拆散了发给不同的人,只要最后能拼起来就行,效率高下立判。 当然Walrus也不是没有槽点。我在使用过程中发现它对Sui的依赖程度极高,这既是优势也是劣势。优势在于它直接利用了Sui的高性能共识来管理元数据,也就是说哪块数据存在哪里,这些信息是记在Sui链上的,而真正的数据块是存在存储节点上的。这种元数据和存储层的分离设计非常聪明,避开了在存储节点上跑沉重共识的坑。但问题是如果你对Sui这个Move生态不感冒,或者你觉得Sui的去中心化程度不够,那你对Walrus的信任度就会打折扣。我在翻看官方文档时发现他们对于存储节点退出的惩罚机制写得还比较含糊,这在未来主网上线后可能会是个隐患。毕竟存储节点都是逐利的,如果激励不够或者惩罚不痛不痒,数据的持久性就会受到挑战。不过反过来看Arweave,虽然它主打一次付费永久存储,但随着数据量的爆炸,那条链的臃肿程度也是个定时炸弹。Walrus选择走这种更像AWS S3的路线,按需付费,定期续费,其实更符合商业逻辑。 真正让我觉得有意思的是它对Web2开发者的友好程度。现在很多Web3存储项目最大的门槛就是难用,非要你装个特殊的客户端或者同步个几百G的节点。Walrus这边直接搞了个HTTP API,不仅能上传还能直接读取,这就有点意思了。它可以直接充当CDN的角色,这意味着原本跑在AWS上的图片和视频,理论上可以无缝迁移到Walrus上,而且前端代码改动极小。这几天我试着把自己博客的图床换成Walrus的测试网链接,加载速度竟然不比中心化服务器慢多少,考虑到这是在去中心化网络上跑的,这性能确实让我有点意外。竞品里也就Greenfield有这个野心,但Greenfield背靠BNB Chain,中心化味道太重,而Walrus在Sui的技术加持下,似乎在性能和去中心化之间找到了一个更诡异的平衡点。这不仅仅是存储,这其实是把数据的所有权和分发权重新洗牌。虽然现在说它能颠覆AWS还为时尚早,甚至有点扯淡,但至少在去中心化存储这个赛道里,它提供了一个不再依赖暴力算力堆叠的新解法。 @WalrusProtocol $WAL {future}(WALUSDT) #Walrus
别再迷信Filecoin的算力堆叠了,Walrus这种把数据切碎了扔进Sui的暴力美学才是存储的终局
我们这一代搞技术的,哪怕是混迹币圈多年的老油条,也容易被永久存储或者人类文明的数字方舟这种宏大叙事冲昏头脑。前几天我闲得发慌,把刚放出来的Walrus白皮书和技术文档啃了一遍,顺手在测试网跑了几个G的数据,这时候我才意识到Sui生态下的这个Walrus根本不是想做什么去中心化的图书馆,它就是个彻头彻尾的实用主义者,甚至可以说它是个精明的数学家。很多在此之前看过去中心化存储项目的人,脑子里的模型大概率还停留在Filecoin或者Arweave的阶段。Filecoin那是典型的大力出奇迹,为了证明我存了你的数据,我要搞PoRep复制证明,我要搞PoSt时空证明,结果就是为了存1TB的真实数据,全网可能要消耗几十倍的算力和存储空间去维持这个共识。这在工程上其实是非常丑陋的,虽然它保证了去中心化,但成本高得离谱。而Walrus那帮搞技术的明显是受够了这种低效。他们掏出了一个叫Red Stuff的算法,这名字听起来挺随意的,像极了某个程序员半夜写代码饿了想点的披萨名字,但内核其实是二维纠删码的变体。
我为什么说它精明,因为在Walrus的架构里,文件不再是文件,而是被切碎成了Blob也就是二进制大对象。你上传一个视频,Walrus不会傻乎乎地把这个视频完整地复制到几十个节点上。相反它用纠删码把文件切成碎块,我们叫它Slivers。最妙的地方在于这种二维编码允许网路在丢失一部分分片甚至一部分节点作恶的情况下,依然能快速恢复出原始数据。它的副本率只有4倍到5倍左右,相比于Filecoin那种动不动十几二十倍的冗余,这简直就是降维打击。这意味着什么,意味着在同样的硬件成本下,Walrus能存更多的数据,这才是商业竞争的核心。我在测试网上传数据的时候明显感觉到那种轻量感,不需要等待复杂的封装过程,数据丢进去,编码,分发,结束。这就像是你原来寄快递要给每个箱子装GPS定位还要每小时汇报位置,现在直接把东西拆散了发给不同的人,只要最后能拼起来就行,效率高下立判。
当然Walrus也不是没有槽点。我在使用过程中发现它对Sui的依赖程度极高,这既是优势也是劣势。优势在于它直接利用了Sui的高性能共识来管理元数据,也就是说哪块数据存在哪里,这些信息是记在Sui链上的,而真正的数据块是存在存储节点上的。这种元数据和存储层的分离设计非常聪明,避开了在存储节点上跑沉重共识的坑。但问题是如果你对Sui这个Move生态不感冒,或者你觉得Sui的去中心化程度不够,那你对Walrus的信任度就会打折扣。我在翻看官方文档时发现他们对于存储节点退出的惩罚机制写得还比较含糊,这在未来主网上线后可能会是个隐患。毕竟存储节点都是逐利的,如果激励不够或者惩罚不痛不痒,数据的持久性就会受到挑战。不过反过来看Arweave,虽然它主打一次付费永久存储,但随着数据量的爆炸,那条链的臃肿程度也是个定时炸弹。Walrus选择走这种更像AWS S3的路线,按需付费,定期续费,其实更符合商业逻辑。
真正让我觉得有意思的是它对Web2开发者的友好程度。现在很多Web3存储项目最大的门槛就是难用,非要你装个特殊的客户端或者同步个几百G的节点。Walrus这边直接搞了个HTTP API,不仅能上传还能直接读取,这就有点意思了。它可以直接充当CDN的角色,这意味着原本跑在AWS上的图片和视频,理论上可以无缝迁移到Walrus上,而且前端代码改动极小。这几天我试着把自己博客的图床换成Walrus的测试网链接,加载速度竟然不比中心化服务器慢多少,考虑到这是在去中心化网络上跑的,这性能确实让我有点意外。竞品里也就Greenfield有这个野心,但Greenfield背靠BNB Chain,中心化味道太重,而Walrus在Sui的技术加持下,似乎在性能和去中心化之间找到了一个更诡异的平衡点。这不仅仅是存储,这其实是把数据的所有权和分发权重新洗牌。虽然现在说它能颠覆AWS还为时尚早,甚至有点扯淡,但至少在去中心化存储这个赛道里,它提供了一个不再依赖暴力算力堆叠的新解法。
@Walrus 🦭/acc
$WAL
#Walrus
WAL
SUI
FIL
W-BEN
·
--
试想一下,高盛或者摩根大通怎么可能把自己的交易底牌直接亮在Etherscan上让全世界围观。这就是当前公链架构的一个致命缺陷,全透明账本对于散户是公平,对于机构就是裸奔。在这个痛点上,我看了一圈隐私赛道的项目,Dusk Network的切入点非常刁钻,它不仅仅是做隐私,而是主打合规隐私。 对比Secret Network或者Oasis这类采用TEE可信执行环境硬件隐私方案的项目,Dusk直接在Layer 1层面采用了零知识证明技术。我觉得这在去中心化程度上更纯粹,毕竟硬件方案还得信任Intel的芯片,而数学证明只需要信任代码。在测试Dusk的钱包交互时,我发现它生成证明的速度比Aztec要快不少,这得益于他们那个Piecrust虚拟机,据说是对零知识证明友好的定制环境。 很多竞品还在做通用的隐私转账,Dusk已经把XSC标准做到了协议层。这个标准有点像加强版的ERC-1400,直接把合规逻辑写进了代币标准里。这意味着,如果不符合KYC要求的地址,根本无法接收代币,这种强制性的链上合规才是传统资金最看重的。目前的DeFi很多是伪合规,只是在前端加个IP屏蔽,后端合约依然是无许可的。Dusk这种从底层架构就引入监管合规接口的设计,虽然不仅让它失去了部分极端自由主义者的市场,但却实打实地铺平了机构入场的路。 我看好它未来的潜力,主要在于欧洲MiCA法案落地后,纯粹的隐私币像Monero会被各大交易所下架,而带有合规审查接口的隐私公链会成为刚需。当然,目前主网的生态应用还比较贫脊,开发者工具的文档也不够完善,这是大部分非EVM兼容链的通病。如果Dusk能把Rust开发者的门槛降下来,在这个RegDeFi监管DeFi赛道,它确实有机会跑赢只做隐私而无视监管的对手。 $DUSK {future}(DUSKUSDT) #Dusk @Dusk_Foundation
试想一下,高盛或者摩根大通怎么可能把自己的交易底牌直接亮在Etherscan上让全世界围观。这就是当前公链架构的一个致命缺陷,全透明账本对于散户是公平,对于机构就是裸奔。在这个痛点上,我看了一圈隐私赛道的项目,Dusk Network的切入点非常刁钻,它不仅仅是做隐私,而是主打合规隐私。
对比Secret Network或者Oasis这类采用TEE可信执行环境硬件隐私方案的项目,Dusk直接在Layer 1层面采用了零知识证明技术。我觉得这在去中心化程度上更纯粹,毕竟硬件方案还得信任Intel的芯片,而数学证明只需要信任代码。在测试Dusk的钱包交互时,我发现它生成证明的速度比Aztec要快不少,这得益于他们那个Piecrust虚拟机,据说是对零知识证明友好的定制环境。
很多竞品还在做通用的隐私转账,Dusk已经把XSC标准做到了协议层。这个标准有点像加强版的ERC-1400,直接把合规逻辑写进了代币标准里。这意味着,如果不符合KYC要求的地址,根本无法接收代币,这种强制性的链上合规才是传统资金最看重的。目前的DeFi很多是伪合规,只是在前端加个IP屏蔽,后端合约依然是无许可的。Dusk这种从底层架构就引入监管合规接口的设计,虽然不仅让它失去了部分极端自由主义者的市场,但却实打实地铺平了机构入场的路。
我看好它未来的潜力,主要在于欧洲MiCA法案落地后,纯粹的隐私币像Monero会被各大交易所下架,而带有合规审查接口的隐私公链会成为刚需。当然,目前主网的生态应用还比较贫脊,开发者工具的文档也不够完善,这是大部分非EVM兼容链的通病。如果Dusk能把Rust开发者的门槛降下来,在这个RegDeFi监管DeFi赛道,它确实有机会跑赢只做隐私而无视监管的对手。
$DUSK
#Dusk
@Dusk
DUSK
W-BEN
·
--
为什么华尔街的巨鲸迟迟不敢在以太坊上游泳以及Dusk正在构建的隐私金融护城河这一周加密市场的风向标显然又转回了RWA现实世界资产这个老生常谈的话题,贝莱德和富兰克林邓普顿的动作让整个赛道再度躁动,但我盯着链上数据看了半天,总觉得哪里不对劲,大家都在喊着把美债和房产上链,却没人愿意谈论一个最尴尬的房间里的大象,那就是在现有的以太坊架构上做合规资产上链本质上是在裸奔。机构是不可能接受这种方案的,这不仅是隐私问题更是生存问题,这两天我深入复盘了Dusk Network的白皮书和他们测试网的节点数据,试图搞清楚这帮人折腾了这么多年的合规隐私Layer 1到底是不是个伪命题。 我们得先承认一个极其残酷的现实,目前的DeFi对于传统金融机构来说就像是一个充满诱惑但布满捕兽夹的黑森林,你在以太坊上转一笔USDC,全世界都知道你的钱包地址,顺藤摸瓜能把你过去五年的交互历史翻个底朝天,这种透明度对极客来说是信仰,但对摩根大通这种级别的机构来说就是绝对的灾难,这就引出了Dusk最核心的切入点,它不是在做一个为了隐私而隐私的暗网,而是在做一个可编程合规的基础设施。我在跑他们节点文档的时候发现,Dusk的架构逻辑和Polymesh这种专门做STO证券型代币发行的链有本质区别,Polymesh给人的感觉更像是一个披着区块链外衣的联盟链,它的合规是靠强KYC卡在入口处的,一旦进去,链上的交互逻辑相对比较死板,而Dusk走的是另一条路,它试图在无许可的公链环境下通过ZK零知识证明来嵌入合规逻辑,这是一个非常大胆甚至可以说是疯狂的设计。 我详细研究了他们的Piecrust虚拟机设计,这玩意儿有点意思,它允许开发者编写隐私智能合约,但这并不是说合约内容完全不可见,而是说状态转换的证明是公开的,但具体的输入数据比如交易金额和持有者身份是隐匿的,这一点在竞品对比中非常关键。拿Mina来说,Mina也是主打ZK的轻量级区块链,技术非常牛,递归证明做得极小,但Mina的设计初衷更多是为了轻量化和去中心化验证,而不是为了复杂的金融合规,你在Mina上很难直接构建一个符合欧盟MiCA法规的证券交易逻辑,因为它缺乏原生的合规原语,Dusk则是在底层标准XSC里直接把合规写死了,这意味着当我在Dusk上发行一个代表房产的Token时,我不需要在合约层去写复杂的白名单逻辑,底层的ZK电路会自动验证交易发起者是否满足通过KYC或者非受制裁地区等条件,而验证过程中节点验证者根本不知道我是谁。 这就是我常说的不仅要证明你是对的,还要在不透露为什么的情况下证明你是对的,但在实际体验中我也发现了一些问题,或者说是目前的短板,为了测试网络的稳定性,我尝试同步了一下他们的全节点,说实话门槛并不低,虽然官方文档写得还算清楚,但对硬件的要求比我想象中要高,ZK证明的生成是计算密集型的任务,这就导致了一个必然的权衡,也就是交易确认速度,Dusk宣称的即时最终性在Succinct Attestation共识下理论上可行,但在高并发压力测试下,证明生成的延迟会不会成为瓶颈这是我目前存疑的地方。相比之下Solana那种单纯堆TPS的链虽然快,但它解决不了隐私问题,而像Monero这种纯隐私币又完全做不了智能合约和合规资产,Dusk卡在这个中间生态位,既要吞吐量又要隐私计算,这对工程实现的挑战是巨大的,搞不好容易两头不讨好。 很多人喜欢把Dusk和Secret Network做比较,我觉得这两个项目的技术路线完全是南辕北辙,Secret依赖的是Intel SGX这种硬件TEE可信执行环境,说白了你是相信数学还是相信英特尔的硬件,过去几年SGX爆出的漏洞不少,硬件级的后门风险始终是悬在头顶的达摩克里斯之剑,而Dusk坚持用PLONK这种通用的零知识证明方案,虽然开发难度大运算重,但它属于密码学安全,不依赖特定硬件厂商,从长期主义的角度看我是站密码学这边的,机构如果真要托管上百亿的资产,绝对不敢把安全假设建立在一家硬件公司的芯片上。 还有一个很有趣的细节,我在翻阅Github代码提交记录时发现他们在经济模型的设计上花了不少心思,代币不仅是Gas更是共识层的质押品,在Rusk虚拟机里为了防止垃圾交易攻击,隐私交易的Gas费计算模型比普通EVM要复杂得多,因为验证一个ZK证明的成本是固定的,但生成证明的成本在客户端,这种非对称的计算负载让Dusk的网络很难被简单的脚本瘫痪,这一点在对比以太坊Layer 2的隐私方案如Aztec时很有优势,L2终究受限于L1的数据可用性,而Dusk作为L1可以从物理层就优化ZK的验证效率。 技术归技术,落地是另一码事,Dusk讲的这个RegDeFi合规去中心化金融的故事,最大的阻力其实不在技术而在流动性,我们现在看到的DeFi繁荣很大程度上是建立在无许可甚至灰色的套利机制上的,一旦引入了强制合规,流动性会不会出现断崖式下跌,这就好比你开了一家只允许穿正装进入的赌场,虽然看起来高大上,但门口穿拖鞋的大户进不来场子可能就热不起来。Dusk的破局点在于它能不能真的把传统金融里的资产搬过来,哪怕只搬过来百分之一,对于目前的加密市场来说都是降维打击,我也试用了他们的钱包UI,现阶段只能说凑合能用,距离Metamask或Phantom那种丝滑程度还有差距,特别是生成证明时的等待时间,对于习惯了秒级确认的用户来说需要一点耐心,这可能是所有ZK系应用的通病,前端体验往往受制于客户端的计算能力,如果在手机端运行耗电和发热能不能控制住还需要打个问号。 从投资研究的角度看,Dusk像是一个潜伏在深海的猎手,它不跟以太坊争夺通用的NFT或Meme市场,也不跟Solana比拼谁跑得快,它死死咬住的是证券代币化这块硬骨头,这块骨头很难啃,过去几年Polymath和Ravencoin都尝试过效果平平,但现在时机变了,传统金融巨头真的进场了,他们需要的不仅仅是一个记账本,而是一个能保护他们交易策略不被泄露的记账本,这时候Dusk的全同态加密和零知识证明的组合拳可能就是市场上唯一的解药。 最近我看社区里有人报怨开发进度慢,这其实很正常,做ZK电路开发不是写个Solidity合约那么简单,一旦电路设计有逻辑漏洞后果是灾难性的,我不指望他们能像土狗项目那样一周一个版本,慢工出细活在密码学领域是必须的,但这并不代表我们可以无限期等待,主网上线后的真实TPS表现将是生与死的考验,如果把目光放得再长远一点,Dusk这种架构可能会成为未来联盟链和公链的融合点,企业不再需要自己搭建私有链来保护隐私,直接用Dusk的隐私层既享受了公链的安全共识又保住了商业机密,这种公链私用的范式可能才是RWA的终极形态。 #dusk @Dusk_Foundation $DUSK {future}(DUSKUSDT)
为什么华尔街的巨鲸迟迟不敢在以太坊上游泳以及Dusk正在构建的隐私金融护城河
这一周加密市场的风向标显然又转回了RWA现实世界资产这个老生常谈的话题,贝莱德和富兰克林邓普顿的动作让整个赛道再度躁动,但我盯着链上数据看了半天,总觉得哪里不对劲,大家都在喊着把美债和房产上链,却没人愿意谈论一个最尴尬的房间里的大象,那就是在现有的以太坊架构上做合规资产上链本质上是在裸奔。机构是不可能接受这种方案的,这不仅是隐私问题更是生存问题,这两天我深入复盘了Dusk Network的白皮书和他们测试网的节点数据,试图搞清楚这帮人折腾了这么多年的合规隐私Layer 1到底是不是个伪命题。
我们得先承认一个极其残酷的现实,目前的DeFi对于传统金融机构来说就像是一个充满诱惑但布满捕兽夹的黑森林,你在以太坊上转一笔USDC,全世界都知道你的钱包地址,顺藤摸瓜能把你过去五年的交互历史翻个底朝天,这种透明度对极客来说是信仰,但对摩根大通这种级别的机构来说就是绝对的灾难,这就引出了Dusk最核心的切入点,它不是在做一个为了隐私而隐私的暗网,而是在做一个可编程合规的基础设施。我在跑他们节点文档的时候发现,Dusk的架构逻辑和Polymesh这种专门做STO证券型代币发行的链有本质区别,Polymesh给人的感觉更像是一个披着区块链外衣的联盟链,它的合规是靠强KYC卡在入口处的,一旦进去,链上的交互逻辑相对比较死板,而Dusk走的是另一条路,它试图在无许可的公链环境下通过ZK零知识证明来嵌入合规逻辑,这是一个非常大胆甚至可以说是疯狂的设计。
我详细研究了他们的Piecrust虚拟机设计,这玩意儿有点意思,它允许开发者编写隐私智能合约,但这并不是说合约内容完全不可见,而是说状态转换的证明是公开的,但具体的输入数据比如交易金额和持有者身份是隐匿的,这一点在竞品对比中非常关键。拿Mina来说,Mina也是主打ZK的轻量级区块链,技术非常牛,递归证明做得极小,但Mina的设计初衷更多是为了轻量化和去中心化验证,而不是为了复杂的金融合规,你在Mina上很难直接构建一个符合欧盟MiCA法规的证券交易逻辑,因为它缺乏原生的合规原语,Dusk则是在底层标准XSC里直接把合规写死了,这意味着当我在Dusk上发行一个代表房产的Token时,我不需要在合约层去写复杂的白名单逻辑,底层的ZK电路会自动验证交易发起者是否满足通过KYC或者非受制裁地区等条件,而验证过程中节点验证者根本不知道我是谁。
这就是我常说的不仅要证明你是对的,还要在不透露为什么的情况下证明你是对的,但在实际体验中我也发现了一些问题,或者说是目前的短板,为了测试网络的稳定性,我尝试同步了一下他们的全节点,说实话门槛并不低,虽然官方文档写得还算清楚,但对硬件的要求比我想象中要高,ZK证明的生成是计算密集型的任务,这就导致了一个必然的权衡,也就是交易确认速度,Dusk宣称的即时最终性在Succinct Attestation共识下理论上可行,但在高并发压力测试下,证明生成的延迟会不会成为瓶颈这是我目前存疑的地方。相比之下Solana那种单纯堆TPS的链虽然快,但它解决不了隐私问题,而像Monero这种纯隐私币又完全做不了智能合约和合规资产,Dusk卡在这个中间生态位,既要吞吐量又要隐私计算,这对工程实现的挑战是巨大的,搞不好容易两头不讨好。
很多人喜欢把Dusk和Secret Network做比较,我觉得这两个项目的技术路线完全是南辕北辙,Secret依赖的是Intel SGX这种硬件TEE可信执行环境,说白了你是相信数学还是相信英特尔的硬件,过去几年SGX爆出的漏洞不少,硬件级的后门风险始终是悬在头顶的达摩克里斯之剑,而Dusk坚持用PLONK这种通用的零知识证明方案,虽然开发难度大运算重,但它属于密码学安全,不依赖特定硬件厂商,从长期主义的角度看我是站密码学这边的,机构如果真要托管上百亿的资产,绝对不敢把安全假设建立在一家硬件公司的芯片上。
还有一个很有趣的细节,我在翻阅Github代码提交记录时发现他们在经济模型的设计上花了不少心思,代币不仅是Gas更是共识层的质押品,在Rusk虚拟机里为了防止垃圾交易攻击,隐私交易的Gas费计算模型比普通EVM要复杂得多,因为验证一个ZK证明的成本是固定的,但生成证明的成本在客户端,这种非对称的计算负载让Dusk的网络很难被简单的脚本瘫痪,这一点在对比以太坊Layer 2的隐私方案如Aztec时很有优势,L2终究受限于L1的数据可用性,而Dusk作为L1可以从物理层就优化ZK的验证效率。
技术归技术,落地是另一码事,Dusk讲的这个RegDeFi合规去中心化金融的故事,最大的阻力其实不在技术而在流动性,我们现在看到的DeFi繁荣很大程度上是建立在无许可甚至灰色的套利机制上的,一旦引入了强制合规,流动性会不会出现断崖式下跌,这就好比你开了一家只允许穿正装进入的赌场,虽然看起来高大上,但门口穿拖鞋的大户进不来场子可能就热不起来。Dusk的破局点在于它能不能真的把传统金融里的资产搬过来,哪怕只搬过来百分之一,对于目前的加密市场来说都是降维打击,我也试用了他们的钱包UI,现阶段只能说凑合能用,距离Metamask或Phantom那种丝滑程度还有差距,特别是生成证明时的等待时间,对于习惯了秒级确认的用户来说需要一点耐心,这可能是所有ZK系应用的通病,前端体验往往受制于客户端的计算能力,如果在手机端运行耗电和发热能不能控制住还需要打个问号。
从投资研究的角度看,Dusk像是一个潜伏在深海的猎手,它不跟以太坊争夺通用的NFT或Meme市场,也不跟Solana比拼谁跑得快,它死死咬住的是证券代币化这块硬骨头,这块骨头很难啃,过去几年Polymath和Ravencoin都尝试过效果平平,但现在时机变了,传统金融巨头真的进场了,他们需要的不仅仅是一个记账本,而是一个能保护他们交易策略不被泄露的记账本,这时候Dusk的全同态加密和零知识证明的组合拳可能就是市场上唯一的解药。
最近我看社区里有人报怨开发进度慢,这其实很正常,做ZK电路开发不是写个Solidity合约那么简单,一旦电路设计有逻辑漏洞后果是灾难性的,我不指望他们能像土狗项目那样一周一个版本,慢工出细活在密码学领域是必须的,但这并不代表我们可以无限期等待,主网上线后的真实TPS表现将是生与死的考验,如果把目光放得再长远一点,Dusk这种架构可能会成为未来联盟链和公链的融合点,企业不再需要自己搭建私有链来保护隐私,直接用Dusk的隐私层既享受了公链的安全共识又保住了商业机密,这种公链私用的范式可能才是RWA的终极形态。
#dusk
@Dusk
$DUSK
DUSK
ETH
W-BEN
·
--
当Tether的流动性遇上比特币的安全墙:2026年稳定币赛道的破局者现在的加密市场,正处在一个非常诡异的阶段。一方面是比特币不断冲击新高,另一方面是基础设施的割裂感越来越强。我们都在谈论RWA上链,谈论支付赛道的万亿蓝海,但现实是:你让一个普通人用以太坊转账买杯咖啡?光Gas费就够再买两杯了。Layer 2虽然便宜了点,但那个跨链桥的安全性,我就呵呵了,黑客提款机都不是白叫的。所以,当我深入研究这个把目光死死盯在稳定币领域的Layer 1时,我感觉我抓住了某种趋势的尾巴。 这篇文章我们不聊虚的,就聊聊这个项目的“骨架”——架构设计。普通的公链就像是瑞士军刀,什么都能干,但什么都干得不极致。而这个链,更像是一把手术刀,专门为了切割“稳定币支付”这块蛋糕而生。它很聪明地抱了两条大腿:一条是EVM生态的灵活性,一条是比特币网络的安全共识。 我在读它的白皮书时,被一个细节吸引了:它不是单纯的侧链,而是引入了比特币锚定机制。这在技术上其实挺有挑战性的。简单说,它把自己的账本快照,定期“刻”在比特币这条最硬的链上。这意味着,除非比特币网络崩了,否则这上面的资产回滚或者被篡改的概率微乎其微。对于那些手握几千万几亿USDT的大户和机构来说,这种安全背书比什么花里胡哨的TPS破万要有吸引力得多。 再来说说它和Tether那种暧昧不清的关系。虽然官方没有明说是什么深度绑定,但从它对USDT的原生支持程度,以及那个离谱的“0费率”转账功能来看,这背后肯定有深度的战略协同。现在的稳定币市场,USDT一家独大,但它也急需一条能承载高频小额支付的高速公路。以太坊太贵,波场太中心化且有合规风险,Solana不稳定。这个时候,一条既有比特币安全背书,又完全兼容以太坊开发环境,还能做到转账免费的链,简直就是为了填补这个生态位而生的。 这几天的链上数据分析也印证了我的猜想。稳定币的铸造量和活跃地址数在呈现指数级增长,而且很多交易特征不像是在炒作NFT或者土狗盘子,更像是真实的支付结算流。我追踪了几个大户地址,发现他们开始频繁地在这个链和交易所之间进行资金调拨。这说明什么?说明Smart Money开始把它当成资金调度的“高速通道”了。 不过,作为研究生,我们要保持批判性思维。我也看到了一些潜在的隐忧。比如,这种深度绑定稳定币的策略,是一把双刃剑。如果监管层面通过链上分析工具对稳定币进行更严格的审查,这条链因为透明度高,可能会首当其冲。另外,虽然它用了比特币做最终结算层,但它自己的共识节点去中心化程度目前还不够高。我在节点浏览器上看了一下,头部的几个验证节点权重还是有点大,这在去中心化原教旨主义者眼里,可能是一个扣分项。 但换个角度想,金融基础设施的初期,往往都需要一定程度的中心化来换取效率和推广速度。VISA是中心化的,SWIFT是中心化的,也没见谁不用。只要它能在保证资产安全的前提下,把用户体验做到极致,大部分用户其实是不在乎那个节点的分布图到底长什么样的。用户只在乎:我转给你100块钱,是不是秒到?是不是不需要手续费? 还有一点很有意思,这个链的生态激励机制。它不像其他公链那样撒胡椒面一样给空投,而是把激励重点放在了流动性提供者和支付网关的建设者身上。这种“重B端、轻C端”的打法,其实非常老辣。因为它知道,C端用户是随波逐流的,哪里好用去哪里;而B端商家和开发者才是护城河。只要把支付通道打通了,用户自然会涌进来。 在对比了目前市面上几个主打支付的概念币后,我发现它们的估值模型都有点虚高。很多项目还在画饼,连主网都没上,市值就敢吹到几十亿。而这个项目,产品已经落地,数据在跑,费率优势实打实,但目前的市值还没完全Price in这些基本面。这可能就是所谓的“认知偏差”红利期吧。 现在的加密市场太浮躁了,大家都想找下一个百倍Meme币。但真正的Alpha,往往藏在这些看似枯燥、实则在重塑底层逻辑的基础设施里。当大家都在淘金的时候,卖铲子的人最赚钱;而当大家都在用稳定币转账的时候,修路的人最有话语权。这条路,现在看起来已经铺得差不多了,路灯也亮了,就差车流汇入。 我也注意到一个小细节,官方文档里有一处关于跨链桥释放周期的描述,好像前后有点矛盾,不知道是写错了还是改了规则没更新,但这正好说明团队还在快速迭代中。对于这种处于爆发前夜的项目,过分的完美主义反而不真实。如果你看懂了稳定币在未来全球金融中的地位,你就应该能看懂这条链的价值。它不是要做下一个以太坊杀手,它就是要做稳定币领域的“VISA网络”,只不过是建立在区块链之上的。 @Plasma $XPL {future}(XPLUSDT) #plasma
当Tether的流动性遇上比特币的安全墙:2026年稳定币赛道的破局者
现在的加密市场,正处在一个非常诡异的阶段。一方面是比特币不断冲击新高,另一方面是基础设施的割裂感越来越强。我们都在谈论RWA上链,谈论支付赛道的万亿蓝海,但现实是:你让一个普通人用以太坊转账买杯咖啡?光Gas费就够再买两杯了。Layer 2虽然便宜了点,但那个跨链桥的安全性,我就呵呵了,黑客提款机都不是白叫的。所以,当我深入研究这个把目光死死盯在稳定币领域的Layer 1时,我感觉我抓住了某种趋势的尾巴。
这篇文章我们不聊虚的,就聊聊这个项目的“骨架”——架构设计。普通的公链就像是瑞士军刀,什么都能干,但什么都干得不极致。而这个链,更像是一把手术刀,专门为了切割“稳定币支付”这块蛋糕而生。它很聪明地抱了两条大腿:一条是EVM生态的灵活性,一条是比特币网络的安全共识。
我在读它的白皮书时,被一个细节吸引了:它不是单纯的侧链,而是引入了比特币锚定机制。这在技术上其实挺有挑战性的。简单说,它把自己的账本快照,定期“刻”在比特币这条最硬的链上。这意味着,除非比特币网络崩了,否则这上面的资产回滚或者被篡改的概率微乎其微。对于那些手握几千万几亿USDT的大户和机构来说,这种安全背书比什么花里胡哨的TPS破万要有吸引力得多。
再来说说它和Tether那种暧昧不清的关系。虽然官方没有明说是什么深度绑定,但从它对USDT的原生支持程度,以及那个离谱的“0费率”转账功能来看,这背后肯定有深度的战略协同。现在的稳定币市场,USDT一家独大,但它也急需一条能承载高频小额支付的高速公路。以太坊太贵,波场太中心化且有合规风险,Solana不稳定。这个时候,一条既有比特币安全背书,又完全兼容以太坊开发环境,还能做到转账免费的链,简直就是为了填补这个生态位而生的。
这几天的链上数据分析也印证了我的猜想。稳定币的铸造量和活跃地址数在呈现指数级增长,而且很多交易特征不像是在炒作NFT或者土狗盘子,更像是真实的支付结算流。我追踪了几个大户地址,发现他们开始频繁地在这个链和交易所之间进行资金调拨。这说明什么?说明Smart Money开始把它当成资金调度的“高速通道”了。
不过,作为研究生,我们要保持批判性思维。我也看到了一些潜在的隐忧。比如,这种深度绑定稳定币的策略,是一把双刃剑。如果监管层面通过链上分析工具对稳定币进行更严格的审查,这条链因为透明度高,可能会首当其冲。另外,虽然它用了比特币做最终结算层,但它自己的共识节点去中心化程度目前还不够高。我在节点浏览器上看了一下,头部的几个验证节点权重还是有点大,这在去中心化原教旨主义者眼里,可能是一个扣分项。
但换个角度想,金融基础设施的初期,往往都需要一定程度的中心化来换取效率和推广速度。VISA是中心化的,SWIFT是中心化的,也没见谁不用。只要它能在保证资产安全的前提下,把用户体验做到极致,大部分用户其实是不在乎那个节点的分布图到底长什么样的。用户只在乎:我转给你100块钱,是不是秒到?是不是不需要手续费?
还有一点很有意思,这个链的生态激励机制。它不像其他公链那样撒胡椒面一样给空投,而是把激励重点放在了流动性提供者和支付网关的建设者身上。这种“重B端、轻C端”的打法,其实非常老辣。因为它知道,C端用户是随波逐流的,哪里好用去哪里;而B端商家和开发者才是护城河。只要把支付通道打通了,用户自然会涌进来。
在对比了目前市面上几个主打支付的概念币后,我发现它们的估值模型都有点虚高。很多项目还在画饼,连主网都没上,市值就敢吹到几十亿。而这个项目,产品已经落地,数据在跑,费率优势实打实,但目前的市值还没完全Price in这些基本面。这可能就是所谓的“认知偏差”红利期吧。
现在的加密市场太浮躁了,大家都想找下一个百倍Meme币。但真正的Alpha,往往藏在这些看似枯燥、实则在重塑底层逻辑的基础设施里。当大家都在淘金的时候,卖铲子的人最赚钱;而当大家都在用稳定币转账的时候,修路的人最有话语权。这条路,现在看起来已经铺得差不多了,路灯也亮了,就差车流汇入。
我也注意到一个小细节,官方文档里有一处关于跨链桥释放周期的描述,好像前后有点矛盾,不知道是写错了还是改了规则没更新,但这正好说明团队还在快速迭代中。对于这种处于爆发前夜的项目,过分的完美主义反而不真实。如果你看懂了稳定币在未来全球金融中的地位,你就应该能看懂这条链的价值。它不是要做下一个以太坊杀手,它就是要做稳定币领域的“VISA网络”,只不过是建立在区块链之上的。
@Plasma
$XPL
#plasma
XPL
BTC
W-BEN
·
--
🎙️ Meow 😸is Back Chill Sunday Vibes Stream💫
Vége
04 ó 04 p 00 mp
8.8k
16
7
W-BEN
·
--
当我们在满屏“AI革命”的PPT里寻找真实吞吐量凌晨四点盯着屏幕上的终端窗口发呆,这种感觉在过去这一轮牛市里出现了太多次,只不过这次对象换成了Vanar。为了验证这到底是不是又一个披着AI外衣来圈钱的以太坊侧链,我几乎把他们的主网RPC接口虐了一遍。现在的市场太浮躁了,只要是个项目就敢说自己是AI算力层,也不管那可怜的TPS能不能跑得动一个最基础的推理模型。我对Vanar起初是完全没报希望的,甚至准备好了要在推特上把它的技术文档挂出来嘲讽一番,毕竟看那个过于精美的官网,怎么看怎么像是个只会做BD而不会写代码的Web2团队搞出来的东西。但随着我把那套用来测试节点压力的Python脚本跑起来,事情变得有点意思了,甚至可以说让我这个看惯了为了扩容而牺牲安全性的老油条感到了一丝意外。 很多人根本没搞懂所谓的AI-Ready到底意味着什么,他们以为是让智能合约去写诗画画,简直荒谬。真正的AI链上交互,是海量的、高频的、微不足道的数据指纹上链。比如一个跑在去中心化网络里的AI代理,它每分钟可能要进行上百次决策,如果每一次决策都要像在以太坊主网那样支付几美元,或者像在Solana上那样祈祷网络不要宕机,那这商业模式在第一天就破产了。我在Vanar上跑了一个模拟的高频交易机器人逻辑,专门用来测试在极端并发下的Gas费稳定性。结果显示,即便我把并发数拉到了几千,Gas费的波动曲线依然平滑得像是在跑本地服务器。这种极端的成本控制和确定性,反倒让我觉得它不像是一个典型的Crypto项目,更像是一个Google Cloud的链上版本。这时候我才反应过来,他们一直在吹嘘的和Google Cloud的深度合作,可能真的不仅仅是发个公关稿那么简单,这种底层的稳定性很有可能是直接复用了Web2大厂的成熟架构。 但这并不代表它就完美无缺。我在尝试通过代码调用Creator Pad的接口去批量生成资产时,遇到了一个极其诡异的Bug。当上传的元数据文件超过一定大小时,节点返回的哈希值偶尔会和本地计算的不一致。这差点让我以为是链的数据一致性出了问题,吓得我冷汗都出来了。后来排查了半天才发现,是他们的API网关在处理大包数据时的超时设置太短,导致了截断。这种低级错误出现在一个标榜企业级的公链上确实不应该,虽然不涉及资产安全,但极其搞人心态。这也侧面反映出,尽管地基打得不错,但上层的开发者工具链还需要大量的打磨。和Near那种虽然架构复杂但开发者文档极其详尽的体验相比,Vanar在开发者友好度上也就是个及格水平,很多时候你还得去Discord里在那堆没什么营养的“GM”和“When Binance”里翻找技术支持的回答。 既然聊到了竞品,就不得不提Flow和Polygon。当年Flow凭借NBA Top Shot一战成名,也是主打IP和低成本,但那套独创的Cadence语言简直是劝退神器,现在的开发者哪有时间去学一门新语言。Vanar在这点上就很鸡贼,它死死咬住了EVM兼容性。我把我之前在Polygon上跑的一套版权确权合约,除了改了下网络配置,其他代码一行没动就直接部署成功了。这种无痛迁移对于那些在其他链上受够了Gas刺客的项目方来说,诱惑力是巨大的。Polygon现在的状态太臃肿了,又是ZK又是侧链,生态里充斥着太多的垃圾资产和土狗盘子,这对于需要合规、干净环境的大型品牌和AI公司来说,其实是个减分项。Vanar那种虽然现在看起来有点冷清,但胜在干净、可控的环境,反倒可能成为正规军进场的首选。 还有一个容易被忽视的点是能源效率。在咱们币圈聊环保确实显得有点格格不入,甚至会被当成白左,但如果你真的和那些纳斯达克上市公司的CTO聊过就会知道,ESG指标是他们接入区块链的一道硬门槛。训练大模型本身就是个电老虎,如果底层的结算层再是个高能耗的怪兽,那合规部门是绝对不会签字的。Vanar利用Proof of Reputation这种机制把能耗压到了极致,这在散户眼里可能不是利好,因为这通常意味着节点的中心化程度较高,抗审查性较弱。但对于商业应用来说,这恰恰是优势。我在查看区块浏览器的时候,发现验证节点列表里那些熟悉的大厂名字,虽然少了几分去中心化的浪漫,但多了几分商业落地的踏实感。 现在的Vanar生态就像是一个装修豪华但还没什么人住的新区。我在浏览器上翻了好几页交易记录,大部分还是代币转账和官方几个合约的交互,真正的原生爆款应用还没出现。这其实是所有新兴L1面临的死循环:没有用户就没有开发者,没有开发者就没有用户。虽然他们通过拉拢大IP来试图破局,但IP转化为链上活跃度是需要时间的。我看到有一些GameFi项目在测试网上冒头,但质量参差不齐。这让我想起了当年的Solana,在StepN出来之前也是一片质疑声。Vanar能不能跑出来,就看它能不能孵化出或者吸引到一个能带来千万级日活的杀手级应用,哪怕只是一个简单的AI互动游戏。 对于我这种技术原教旨主义者来说,Vanar的架构设计谈不上惊艳,它没有像Sui或者Aptos那样搞出什么Move语言这种底层的革新,也没有搞什么复杂的并行执行理论。它更像是一个工程学上的最优解,把现有的技术组合起来,针对AI和元宇宙的高频低价需求做了极致的优化。这种实用主义在满是空气和泡沫的Web3世界里其实挺稀缺的。我不建议任何人为了炒作去买它,因为它的爆发周期可能会很长,长到让你怀疑人生。但如果你是一个想做AI应用的开发者,或者是一个看好Web3大规模采用的长期持有者,花点时间去研究一下它的Gas模型和API接口,绝对比盯着K线看要有价值得多。毕竟,在这个行业里,最后活下来的往往不是那些喊得最响的,而是那些真正能把路修平,让车跑起来的工兵。 @Vanar $VANRY {future}(VANRYUSDT) #Vanar
当我们在满屏“AI革命”的PPT里寻找真实吞吐量
凌晨四点盯着屏幕上的终端窗口发呆,这种感觉在过去这一轮牛市里出现了太多次,只不过这次对象换成了Vanar。为了验证这到底是不是又一个披着AI外衣来圈钱的以太坊侧链,我几乎把他们的主网RPC接口虐了一遍。现在的市场太浮躁了,只要是个项目就敢说自己是AI算力层,也不管那可怜的TPS能不能跑得动一个最基础的推理模型。我对Vanar起初是完全没报希望的,甚至准备好了要在推特上把它的技术文档挂出来嘲讽一番,毕竟看那个过于精美的官网,怎么看怎么像是个只会做BD而不会写代码的Web2团队搞出来的东西。但随着我把那套用来测试节点压力的Python脚本跑起来,事情变得有点意思了,甚至可以说让我这个看惯了为了扩容而牺牲安全性的老油条感到了一丝意外。
很多人根本没搞懂所谓的AI-Ready到底意味着什么,他们以为是让智能合约去写诗画画,简直荒谬。真正的AI链上交互,是海量的、高频的、微不足道的数据指纹上链。比如一个跑在去中心化网络里的AI代理,它每分钟可能要进行上百次决策,如果每一次决策都要像在以太坊主网那样支付几美元,或者像在Solana上那样祈祷网络不要宕机,那这商业模式在第一天就破产了。我在Vanar上跑了一个模拟的高频交易机器人逻辑,专门用来测试在极端并发下的Gas费稳定性。结果显示,即便我把并发数拉到了几千,Gas费的波动曲线依然平滑得像是在跑本地服务器。这种极端的成本控制和确定性,反倒让我觉得它不像是一个典型的Crypto项目,更像是一个Google Cloud的链上版本。这时候我才反应过来,他们一直在吹嘘的和Google Cloud的深度合作,可能真的不仅仅是发个公关稿那么简单,这种底层的稳定性很有可能是直接复用了Web2大厂的成熟架构。
但这并不代表它就完美无缺。我在尝试通过代码调用Creator Pad的接口去批量生成资产时,遇到了一个极其诡异的Bug。当上传的元数据文件超过一定大小时,节点返回的哈希值偶尔会和本地计算的不一致。这差点让我以为是链的数据一致性出了问题,吓得我冷汗都出来了。后来排查了半天才发现,是他们的API网关在处理大包数据时的超时设置太短,导致了截断。这种低级错误出现在一个标榜企业级的公链上确实不应该,虽然不涉及资产安全,但极其搞人心态。这也侧面反映出,尽管地基打得不错,但上层的开发者工具链还需要大量的打磨。和Near那种虽然架构复杂但开发者文档极其详尽的体验相比,Vanar在开发者友好度上也就是个及格水平,很多时候你还得去Discord里在那堆没什么营养的“GM”和“When Binance”里翻找技术支持的回答。
既然聊到了竞品,就不得不提Flow和Polygon。当年Flow凭借NBA Top Shot一战成名,也是主打IP和低成本,但那套独创的Cadence语言简直是劝退神器,现在的开发者哪有时间去学一门新语言。Vanar在这点上就很鸡贼,它死死咬住了EVM兼容性。我把我之前在Polygon上跑的一套版权确权合约,除了改了下网络配置,其他代码一行没动就直接部署成功了。这种无痛迁移对于那些在其他链上受够了Gas刺客的项目方来说,诱惑力是巨大的。Polygon现在的状态太臃肿了,又是ZK又是侧链,生态里充斥着太多的垃圾资产和土狗盘子,这对于需要合规、干净环境的大型品牌和AI公司来说,其实是个减分项。Vanar那种虽然现在看起来有点冷清,但胜在干净、可控的环境,反倒可能成为正规军进场的首选。
还有一个容易被忽视的点是能源效率。在咱们币圈聊环保确实显得有点格格不入,甚至会被当成白左,但如果你真的和那些纳斯达克上市公司的CTO聊过就会知道,ESG指标是他们接入区块链的一道硬门槛。训练大模型本身就是个电老虎,如果底层的结算层再是个高能耗的怪兽,那合规部门是绝对不会签字的。Vanar利用Proof of Reputation这种机制把能耗压到了极致,这在散户眼里可能不是利好,因为这通常意味着节点的中心化程度较高,抗审查性较弱。但对于商业应用来说,这恰恰是优势。我在查看区块浏览器的时候,发现验证节点列表里那些熟悉的大厂名字,虽然少了几分去中心化的浪漫,但多了几分商业落地的踏实感。
现在的Vanar生态就像是一个装修豪华但还没什么人住的新区。我在浏览器上翻了好几页交易记录,大部分还是代币转账和官方几个合约的交互,真正的原生爆款应用还没出现。这其实是所有新兴L1面临的死循环:没有用户就没有开发者,没有开发者就没有用户。虽然他们通过拉拢大IP来试图破局,但IP转化为链上活跃度是需要时间的。我看到有一些GameFi项目在测试网上冒头,但质量参差不齐。这让我想起了当年的Solana,在StepN出来之前也是一片质疑声。Vanar能不能跑出来,就看它能不能孵化出或者吸引到一个能带来千万级日活的杀手级应用,哪怕只是一个简单的AI互动游戏。
对于我这种技术原教旨主义者来说,Vanar的架构设计谈不上惊艳,它没有像Sui或者Aptos那样搞出什么Move语言这种底层的革新,也没有搞什么复杂的并行执行理论。它更像是一个工程学上的最优解,把现有的技术组合起来,针对AI和元宇宙的高频低价需求做了极致的优化。这种实用主义在满是空气和泡沫的Web3世界里其实挺稀缺的。我不建议任何人为了炒作去买它,因为它的爆发周期可能会很长,长到让你怀疑人生。但如果你是一个想做AI应用的开发者,或者是一个看好Web3大规模采用的长期持有者,花点时间去研究一下它的Gas模型和API接口,绝对比盯着K线看要有价值得多。毕竟,在这个行业里,最后活下来的往往不是那些喊得最响的,而是那些真正能把路修平,让车跑起来的工兵。
@Vanarchain
$VANRY
#Vanar
VANRY
W-BEN
·
--
支付赛道的终极绞肉机:当0 Gas费成为标配,公链还能讲什么故事? 最近研究了一圈Layer 2和新公链的底层架构,发现一个很有意思的现象:绝大多数项目还在扩容和TPS上卷生卷死,却忽略了用户最感知的痛点——摩擦成本。看完了那个Drive里的技术文档,感觉Plasma这次回来的打法非常刁钻,直接切中了“支付即服务”的肯节儿。 咱们把话摊开了说,现在市面上所谓的“低费率”其实是个伪命题。你用以太坊L2转一笔USDT,虽然比主网便宜,但那零点几刀的磨损对于高频小额支付依然是致命的。更别提波场现在提币手续费涨得离谱,简直是在吸血。而我在测试XPL网络时,最直观的感受就是丝滑,0手续费转账这个点,在技术逻辑上其实是对矿工费模型的一次降维打击。它不是靠补贴,而是通过底层架构重构了验证机制,把成本内化到了网络效用里。 竞品对比方面,Solana虽然快,但宕机隐患始终像个定时炸弹;Tron虽然生态大,但日益增长的费用正在劝退中小户。XPL这种“0 Gas”模式,一旦跑通了稳定币的高频流转,对现有的支付公链就是降维打击。这就好比当年互联网从拨号上网按时计费变成了宽带包月,流量爆发是必然的。 当然,没有任何系统是完美的。我在看白皮书时也发现,这种机制对节点的抗压能力要求极高,前期如果没有足够的节点分散度,中心化风险是需要警惕的。不过从目前的测试网数据看,它的吞吐量撑住早期爆发没问题。对于投资者来说,如果一个网络能成为稳定币流动的首选通道,那它的原生代币价值捕获逻辑就完全变了——不再是靠Gas费燃烧,而是靠网络效应的溢价。这种估值模刑,可能比单纯的Gas Token更具爆发力。 @Plasma $XPL {future}(XPLUSDT) #plasma
支付赛道的终极绞肉机:当0 Gas费成为标配,公链还能讲什么故事?
最近研究了一圈Layer 2和新公链的底层架构,发现一个很有意思的现象:绝大多数项目还在扩容和TPS上卷生卷死,却忽略了用户最感知的痛点——摩擦成本。看完了那个Drive里的技术文档,感觉Plasma这次回来的打法非常刁钻,直接切中了“支付即服务”的肯节儿。
咱们把话摊开了说,现在市面上所谓的“低费率”其实是个伪命题。你用以太坊L2转一笔USDT,虽然比主网便宜,但那零点几刀的磨损对于高频小额支付依然是致命的。更别提波场现在提币手续费涨得离谱,简直是在吸血。而我在测试XPL网络时,最直观的感受就是丝滑,0手续费转账这个点,在技术逻辑上其实是对矿工费模型的一次降维打击。它不是靠补贴,而是通过底层架构重构了验证机制,把成本内化到了网络效用里。
竞品对比方面,Solana虽然快,但宕机隐患始终像个定时炸弹;Tron虽然生态大,但日益增长的费用正在劝退中小户。XPL这种“0 Gas”模式,一旦跑通了稳定币的高频流转,对现有的支付公链就是降维打击。这就好比当年互联网从拨号上网按时计费变成了宽带包月,流量爆发是必然的。
当然,没有任何系统是完美的。我在看白皮书时也发现,这种机制对节点的抗压能力要求极高,前期如果没有足够的节点分散度,中心化风险是需要警惕的。不过从目前的测试网数据看,它的吞吐量撑住早期爆发没问题。对于投资者来说,如果一个网络能成为稳定币流动的首选通道,那它的原生代币价值捕获逻辑就完全变了——不再是靠Gas费燃烧,而是靠网络效应的溢价。这种估值模刑,可能比单纯的Gas Token更具爆发力。
@Plasma
$XPL
#plasma
XPL
ETH
W-BEN
·
--
现在的GameFi和元宇宙赛道,简直就是“用户劝退指南”的集大成者。你让一个只想玩游戏的Web2用户,进门先下个小狐狸钱包,再记12个助记词,最后还得算着Gas费会不会把那点可怜的打金收益吃光,这本身就是反人性的。看了那么多链宣称要带十亿用户进Web3,结果大部分都倒在了“登陆”这第一道门槛上。 在这个维度上重测Vanar Chain,能看出点不一样的野心。它那一长串的生态合作伙伴名单——比如Virtua这种级别的,说明它走的不是让币圈土狗互割的路线,而是想把拥有庞大用户基数的传统品牌生拉硬拽进这个圈子。Vanar给出的解决方案很鸡贼(中性词),它试图把区块链做成“隐形技术”。对于终端用户来说,你可能根本意识不到自己在跟链交互,道具的所有权确权是在后台静默完成的。 这跟那些动不动就标榜“全链游戏”、恨不得把每一步走路都上链的项目形成了鲜明反差。以太坊系的L2虽然快,但在处理这种高频、低价值、需要极致丝滑体验的消费级场景时,依然显得笨重。Vanar那种针对娱乐和媒体优化的底层逻辑,显然是想做Web3里的App Store后台,而不是再造一个拥堵的纳斯达克。 但是,这把双刃剑也很明显。走B2B2C的路线,意味着它极度依赖合作伙伴的落地速度。现在看链上的活跃度,数据还没跑出来。那些光鲜亮丽的Logo如果最后只是发了个新闻通稿,而没有真实的流量导入,那这就是个典型的“VC局”。现在的Vanar就像是一个装备精良的空军基地,飞机跑道修得震天响,但天上飞的航班还不够密集。对于散户来说,这种缺乏“土狗暴富效应”的链,短期内可能稍微缺了点炒作的肾上腺素。 @Vanar $VANRY {future}(VANRYUSDT) #Vanar
现在的GameFi和元宇宙赛道,简直就是“用户劝退指南”的集大成者。你让一个只想玩游戏的Web2用户,进门先下个小狐狸钱包,再记12个助记词,最后还得算着Gas费会不会把那点可怜的打金收益吃光,这本身就是反人性的。看了那么多链宣称要带十亿用户进Web3,结果大部分都倒在了“登陆”这第一道门槛上。
在这个维度上重测Vanar Chain,能看出点不一样的野心。它那一长串的生态合作伙伴名单——比如Virtua这种级别的,说明它走的不是让币圈土狗互割的路线,而是想把拥有庞大用户基数的传统品牌生拉硬拽进这个圈子。Vanar给出的解决方案很鸡贼(中性词),它试图把区块链做成“隐形技术”。对于终端用户来说,你可能根本意识不到自己在跟链交互,道具的所有权确权是在后台静默完成的。
这跟那些动不动就标榜“全链游戏”、恨不得把每一步走路都上链的项目形成了鲜明反差。以太坊系的L2虽然快,但在处理这种高频、低价值、需要极致丝滑体验的消费级场景时,依然显得笨重。Vanar那种针对娱乐和媒体优化的底层逻辑,显然是想做Web3里的App Store后台,而不是再造一个拥堵的纳斯达克。
但是,这把双刃剑也很明显。走B2B2C的路线,意味着它极度依赖合作伙伴的落地速度。现在看链上的活跃度,数据还没跑出来。那些光鲜亮丽的Logo如果最后只是发了个新闻通稿,而没有真实的流量导入,那这就是个典型的“VC局”。现在的Vanar就像是一个装备精良的空军基地,飞机跑道修得震天响,但天上飞的航班还不够密集。对于散户来说,这种缺乏“土狗暴富效应”的链,短期内可能稍微缺了点炒作的肾上腺素。
@Vanarchain
$VANRY
#Vanar
VANRY
W-BEN
·
--
既然去中心化存储都说自己是未来的AWS,为什么我传个1GB视频还是像在便秘这几天被这帮搞模块化叙事的弄得头大,满屏都在喊DA层革命,结果真到了要存点大家伙的时候,一个个都哑火了。我前两天为了测一个DApp的视频流媒体功能,硬着头皮去试了一圈市面上的存储方案,差点没把自己气笑。Arweave确实是永久存储的图腾,那套纺织网架构听起来性感得不行,但你只要试过一次上传几百兆以上的文件,那个等待确认的时间足够你下楼买杯咖啡顺便思考完人生,更别提那贵得离谱的预付成本,感觉像是在给几百年后的外星人留遗产,而不是解决我现在的痛点。Filecoin那边更绝,且不说检索效率的问题,光是那个扇区封装的机制,对于我们这种想要快速读写数据的轻量级应用来说,简直就是穿着铅鞋跑马拉松,沉重且多余。 正是在这种被各路基建折磨得没脾气的时候,我把目光转到了Walrus身上,说实话一开始我是带着挑刺的心态去的,毕竟Sui生态出来的东西总给人一种技术过剩但落地困难的刻板印象,但上手跑了一下CLI指令后,我发现这帮人确实在解决真问题。Walrus底层的Erasure Coding(纠删码)并没有像其他项目那样被吹得天花乱坠,但在实际的数据分片和恢复测试里,表现得却异常稳健。我故意掐断了几个存储节点的连接,想看看数据重建的延迟,结果系统几乎是在无感的情况下完成了数据取回,这种体验在去中心化网络里其实是非常罕见的。这让我想到以前用AWS S3的时候,虽然中心化,但那种随存随取的丝滑感才是开发者真正离不开的毒药,而Walrus现在的“红牛”算法(Red Stuff)似乎真的在往这个方向逼近,它没有过度强调“永久”这个沉重的伪命题,而是更务实地解决了“可用性”和“成本”之间的平衡。 不过用起来也不是完全没槽点,现在的文档写得简直像是给核心开发者自己看的,也就是我们这种习惯了啃生肉代码的人能耐着性子往下读,普通开发者进来估计得懵圈半天。而且在处理高并发的小文件写入时,我发现偶尔会有请求排队的现象,虽然比Arweave那种甚至可能卡死的状况好多了,但距离Web2那种极致的毫秒级响应还是有肉眼可见的差距。但这恰恰是我觉得它真实的地方,它没有掩盖去中心化必然带来的网络开销,而是通过更优的架构设计去抵消这种物理限制。相比于Celestia专注于把DA层剥离出来做共识,Walrus更像是一个实实在在的“硬盘”,它不跟你谈什么宏大的链上治理,就是单纯地要把数据存进去、取出来,并且便宜到让你忽略它的存在。这种纯粹性在现在这个浮躁的市场里反倒显得有点格格不入,但也正是这种格格不入,让我觉得它可能真的能跑出来。 整个测试下来,最让我意外的其实不是TPS或者吞吐量这些冷冰冰的数据,而是它在Sui网络上的互操作性。以前我们在以太坊上存个NFT元数据,图片得扔IPFS,哈希得写合约里,两边一旦脱节就全是死链,Walrus这种直接把Blob存储和智能合约状态挂钩的设计,确实省掉了不少中间件的胶水代码。虽然现在看它还是个半成品,很多工具链都不完善,甚至CLI有时候还会报一些莫名其妙的错,但这就像是当年刚出来的Docker,粗糙但充满野性。我不确定它能不能干掉Filecoin,毕竟FIL的存量市场太大了,但对于新的高频应用来说,谁愿意去忍受那个笨重的恐龙呢?至少我会把赌注下在这个看起来更轻盈、更符合现代工程美学的新东西上。 @WalrusProtocol $WAL {future}(WALUSDT) #Walrus
既然去中心化存储都说自己是未来的AWS,为什么我传个1GB视频还是像在便秘
这几天被这帮搞模块化叙事的弄得头大,满屏都在喊DA层革命,结果真到了要存点大家伙的时候,一个个都哑火了。我前两天为了测一个DApp的视频流媒体功能,硬着头皮去试了一圈市面上的存储方案,差点没把自己气笑。Arweave确实是永久存储的图腾,那套纺织网架构听起来性感得不行,但你只要试过一次上传几百兆以上的文件,那个等待确认的时间足够你下楼买杯咖啡顺便思考完人生,更别提那贵得离谱的预付成本,感觉像是在给几百年后的外星人留遗产,而不是解决我现在的痛点。Filecoin那边更绝,且不说检索效率的问题,光是那个扇区封装的机制,对于我们这种想要快速读写数据的轻量级应用来说,简直就是穿着铅鞋跑马拉松,沉重且多余。
正是在这种被各路基建折磨得没脾气的时候,我把目光转到了Walrus身上,说实话一开始我是带着挑刺的心态去的,毕竟Sui生态出来的东西总给人一种技术过剩但落地困难的刻板印象,但上手跑了一下CLI指令后,我发现这帮人确实在解决真问题。Walrus底层的Erasure Coding(纠删码)并没有像其他项目那样被吹得天花乱坠,但在实际的数据分片和恢复测试里,表现得却异常稳健。我故意掐断了几个存储节点的连接,想看看数据重建的延迟,结果系统几乎是在无感的情况下完成了数据取回,这种体验在去中心化网络里其实是非常罕见的。这让我想到以前用AWS S3的时候,虽然中心化,但那种随存随取的丝滑感才是开发者真正离不开的毒药,而Walrus现在的“红牛”算法(Red Stuff)似乎真的在往这个方向逼近,它没有过度强调“永久”这个沉重的伪命题,而是更务实地解决了“可用性”和“成本”之间的平衡。
不过用起来也不是完全没槽点,现在的文档写得简直像是给核心开发者自己看的,也就是我们这种习惯了啃生肉代码的人能耐着性子往下读,普通开发者进来估计得懵圈半天。而且在处理高并发的小文件写入时,我发现偶尔会有请求排队的现象,虽然比Arweave那种甚至可能卡死的状况好多了,但距离Web2那种极致的毫秒级响应还是有肉眼可见的差距。但这恰恰是我觉得它真实的地方,它没有掩盖去中心化必然带来的网络开销,而是通过更优的架构设计去抵消这种物理限制。相比于Celestia专注于把DA层剥离出来做共识,Walrus更像是一个实实在在的“硬盘”,它不跟你谈什么宏大的链上治理,就是单纯地要把数据存进去、取出来,并且便宜到让你忽略它的存在。这种纯粹性在现在这个浮躁的市场里反倒显得有点格格不入,但也正是这种格格不入,让我觉得它可能真的能跑出来。
整个测试下来,最让我意外的其实不是TPS或者吞吐量这些冷冰冰的数据,而是它在Sui网络上的互操作性。以前我们在以太坊上存个NFT元数据,图片得扔IPFS,哈希得写合约里,两边一旦脱节就全是死链,Walrus这种直接把Blob存储和智能合约状态挂钩的设计,确实省掉了不少中间件的胶水代码。虽然现在看它还是个半成品,很多工具链都不完善,甚至CLI有时候还会报一些莫名其妙的错,但这就像是当年刚出来的Docker,粗糙但充满野性。我不确定它能不能干掉Filecoin,毕竟FIL的存量市场太大了,但对于新的高频应用来说,谁愿意去忍受那个笨重的恐龙呢?至少我会把赌注下在这个看起来更轻盈、更符合现代工程美学的新东西上。
@Walrus 🦭/acc
$WAL
#Walrus
WAL
W-BEN
·
--
最近花了点时间去啃Dusk的Piecrust VM技术白皮书,说实话,看得我脑壳有点疼,但也确实咂摸出一点不一样的味道。现在市面上那帮做ZK赛道的,像Aleo或者Iron Fish,恨不得把“隐私”两个字刻在脑门上,那种极客范儿的算力堆砌确实性感,但只要涉及到具体的资产发行,立马就显得有点水土不服。我跑了几遍Piecrust的测试环境,它优化的那个零知识证明生成速度,不是那种靠堆硬件堆出来的暴力美学,而是它在内存模型上动了刀子。以前在以太坊上搞隐私交互,光是生成Proof那一会就能让你等到花谢,Dusk这个虚拟机居然能把证明生成和合约执行解耦得这么顺滑,这一点确实有点东西。 开发者文档,写得简直像天书,很多关键的接口参数还得我去翻GitHub的源码才能搞明白。这就导致我现在看它上面的生态,除了官方力推的几个Demo,全是荒漠。这也不能全怪项目方,毕竟它走的是合规金融路线。大家都在聊RWA,聊贝莱德入场,但真到了链上执行层面,你会发现现有的EVM架构根本承载不了复杂的证券合规逻辑。以太坊目前的做法是打补丁,用ERC-1400这种标准去套,虽然能用,但怎么看怎么别扭。Dusk这帮人有点轴,他们觉得既然要搞证券化,就得从底层账本把“身份校验”和“资产确权”给焊死。 拿它和Mina做个对比其实挺有意思,Mina追求极致的轻量化,把区块链压缩到几KB,适合做支付和简单验证;Dusk则是重装上阵,它那个XSC标准实际上是在给每一笔交易都加上了“审计后门”。注意,这个后门不是给黑客留的,是给监管留的。这在原教旨主义的Crypto圈子里肯定不讨喜,甚至会被骂是“伪去中心化”。但我盯着那些只有几百个持币地址的纯隐私币看了一圈,突然觉得这种像银行一样思考的公链可能反而能活得更久。 #dusk @Dusk_Foundation $DUSK {future}(DUSKUSDT)
最近花了点时间去啃Dusk的Piecrust VM技术白皮书,说实话,看得我脑壳有点疼,但也确实咂摸出一点不一样的味道。现在市面上那帮做ZK赛道的,像Aleo或者Iron Fish,恨不得把“隐私”两个字刻在脑门上,那种极客范儿的算力堆砌确实性感,但只要涉及到具体的资产发行,立马就显得有点水土不服。我跑了几遍Piecrust的测试环境,它优化的那个零知识证明生成速度,不是那种靠堆硬件堆出来的暴力美学,而是它在内存模型上动了刀子。以前在以太坊上搞隐私交互,光是生成Proof那一会就能让你等到花谢,Dusk这个虚拟机居然能把证明生成和合约执行解耦得这么顺滑,这一点确实有点东西。
开发者文档,写得简直像天书,很多关键的接口参数还得我去翻GitHub的源码才能搞明白。这就导致我现在看它上面的生态,除了官方力推的几个Demo,全是荒漠。这也不能全怪项目方,毕竟它走的是合规金融路线。大家都在聊RWA,聊贝莱德入场,但真到了链上执行层面,你会发现现有的EVM架构根本承载不了复杂的证券合规逻辑。以太坊目前的做法是打补丁,用ERC-1400这种标准去套,虽然能用,但怎么看怎么别扭。Dusk这帮人有点轴,他们觉得既然要搞证券化,就得从底层账本把“身份校验”和“资产确权”给焊死。
拿它和Mina做个对比其实挺有意思,Mina追求极致的轻量化,把区块链压缩到几KB,适合做支付和简单验证;Dusk则是重装上阵,它那个XSC标准实际上是在给每一笔交易都加上了“审计后门”。注意,这个后门不是给黑客留的,是给监管留的。这在原教旨主义的Crypto圈子里肯定不讨喜,甚至会被骂是“伪去中心化”。但我盯着那些只有几百个持币地址的纯隐私币看了一圈,突然觉得这种像银行一样思考的公链可能反而能活得更久。
#dusk
@Dusk
$DUSK
DUSK
W-BEN
·
--
很多人还在问 “CandyBomb 值不值得参加”。 问题根本不在奖励, 在于 BG 为什么愿意给 $ARTX 这种资源。 看不懂这一点,后面基本都得追。 比如我,我又追了!真造孽! #Ultiland $ARTX {alpha}(560x8105743e8a19c915a604d7d9e7aa3a060a4c2c32)
很多人还在问 “CandyBomb 值不值得参加”。
问题根本不在奖励,
在于 BG 为什么愿意给 $ARTX 这种资源。
看不懂这一点,后面基本都得追。
比如我,我又追了!真造孽!
#Ultiland
$ARTX
ARTX
Alpha
-2.15%
W-BEN
·
--
繁华落尽见真章:为什么说 Plasma 正在做加密世界最不性感却最重要的事在这个圈子里摸爬滚打这么久,我发现一个很有意思的现象:越是喧嚣的项目死得越快,越是那些沉闷的基础设施反而活得越久。最近市场都在追逐 AI 结合 Crypto 或者各种复杂的重质押协议,大家恨不得把区块链包装成万能的神。但当我静下心来复盘自己的投资逻辑时,我把目光重新锁死在了 Plasma 身上。这听起来可能有点反直觉,因为 Plasma 讲的故事太老土了,它只想做支付。但经过这段时间的深度调研,我越来越觉得,这种“不性感”恰恰是它最大的护城河。 我们先来拆解一下现在加密世界的痛点。大家都在谈论 Web3 的大规模采用,但现实是极其骨感的。前几天我想把一些 U 从一个链转到另一个链去参与打新,光是研究跨链桥的安全性、计算不同路径的磨损、等待漫长的确认时间,就花了我半个小时。这还只是咱们这些熟手,要是换个圈外人,估计早被吓跑了。现在的公链格局,像极了早期的互联网,一个个局域网互不相通,不仅拥堵而且昂贵。 Plasma 在这里其实在下一盘很大的棋。它没有去卷那些花里胡哨的智能合约生态,而是专注于把“价值传输”这件事做到极致。我在查阅他们的技术文档时发现,团队对于网络吞吐量和延迟的优化简直到了偏执的程度。他们现在的架构设计,明显是为了应对未来那种每秒数万笔的高频交易准备的。这让我联想到了现实世界里的 Visa 和万事达,它们不生产商品,也不开商店,但它们掌握了全球资金流动的命脉。Plasma 给我的感觉,就是想做加密世界的这套底层清算系统。 从散户的实操体验来看,这种底层优化的感知是非常强烈的。我在 Plasma 链上测试了几笔稳定币转账,那种丝滑程度和几乎可以忽略不计的手续费,让我产生了一种“这才是区块链该有的样子”的错觉。相比之下,以太坊主网像是一条拥堵且收费昂贵的贵族大道,而 Plasma 更像是一条四通八达的高速公路。对于未来的商业应用来说,没有商家会愿意为了收一笔款而去支付高昂的 GAS 费,也没有用户愿意站在收银台前等几分钟的区块确认。成本和效率,永远是商业逻辑的第一性原理,而 Plasma 恰恰抓住了这两点。 再来聊聊XPL的内在逻辑。很多人觉得支付型代币没有想象空间,因为它们不像治理代币那样可以讲各种复杂的质押生息故事。但我认为恰恰相反。XPL的价值捕获是基于真实的物理消耗。每一次转账、每一次支付、每一次合约调用,都在消耗 $XPL。这是一种最原始但也最稳健的供需模型。随着网络使用率的提升,这种通缩效应是指数级的。而且,不同于那些完全依靠增发来维持 APY 的庞氏模型,XPL的经济模型是建立在网络真实的活跃度之上的。这种“虽迟但到”的价值回归,往往比那些空中楼阁要猛烈得多。 我也深入观察了他们的社区氛围。说实话,那里没有太多的喊单党,更多的是一些在讨论技术落地和支付接口对接的开发者。这种氛围在现在的币圈简直是清流。这意味着现在的筹码结构非常健康,大部分持仓者是看好项目长期发展的坚定持有者,而不是像蝗虫一样撸完空投就跑的投机客。这种社区共识,是任何营销手段都买不来的。 当然,押注支付赛道是有风险的。最大的风险在于传统金融的打压和监管的不确定性。Plasma 想要真正走通这条路,不仅需要技术过硬,还需要极强的合规能力和商业拓展能力。目前来看,团队在这方面的布局还算稳健,没有激进地去触碰红线,而是在现有的框架内寻求最优解。 总结一下我的看法,现在的市场处于一个极度浮躁的阶段,大家都在寻找下一个百倍金狗。但往往最大的机会就藏在那些被忽视的基础设施里。Plasma 就像是当年互联网泡沫时期的光纤铺设者,当时没人觉得铺光缆赚钱,大家都去炒作互联网概念股了。但最后泡沫破灭,只有基础设施留了下来,并承载了后来的互联网黄金时代。对于我们这种想在这个行业活过三个周期的投资人来说,配置一部分像 Plasma 这样有真实造血能力的基础设施,是穿越牛熊最好的护城河。 @Plasma $XPL {future}(XPLUSDT) #plasma
繁华落尽见真章:为什么说 Plasma 正在做加密世界最不性感却最重要的事
在这个圈子里摸爬滚打这么久,我发现一个很有意思的现象:越是喧嚣的项目死得越快,越是那些沉闷的基础设施反而活得越久。最近市场都在追逐 AI 结合 Crypto 或者各种复杂的重质押协议,大家恨不得把区块链包装成万能的神。但当我静下心来复盘自己的投资逻辑时,我把目光重新锁死在了 Plasma 身上。这听起来可能有点反直觉,因为 Plasma 讲的故事太老土了,它只想做支付。但经过这段时间的深度调研,我越来越觉得,这种“不性感”恰恰是它最大的护城河。
我们先来拆解一下现在加密世界的痛点。大家都在谈论 Web3 的大规模采用,但现实是极其骨感的。前几天我想把一些 U 从一个链转到另一个链去参与打新,光是研究跨链桥的安全性、计算不同路径的磨损、等待漫长的确认时间,就花了我半个小时。这还只是咱们这些熟手,要是换个圈外人,估计早被吓跑了。现在的公链格局,像极了早期的互联网,一个个局域网互不相通,不仅拥堵而且昂贵。
Plasma 在这里其实在下一盘很大的棋。它没有去卷那些花里胡哨的智能合约生态,而是专注于把“价值传输”这件事做到极致。我在查阅他们的技术文档时发现,团队对于网络吞吐量和延迟的优化简直到了偏执的程度。他们现在的架构设计,明显是为了应对未来那种每秒数万笔的高频交易准备的。这让我联想到了现实世界里的 Visa 和万事达,它们不生产商品,也不开商店,但它们掌握了全球资金流动的命脉。Plasma 给我的感觉,就是想做加密世界的这套底层清算系统。
从散户的实操体验来看,这种底层优化的感知是非常强烈的。我在 Plasma 链上测试了几笔稳定币转账,那种丝滑程度和几乎可以忽略不计的手续费,让我产生了一种“这才是区块链该有的样子”的错觉。相比之下,以太坊主网像是一条拥堵且收费昂贵的贵族大道,而 Plasma 更像是一条四通八达的高速公路。对于未来的商业应用来说,没有商家会愿意为了收一笔款而去支付高昂的 GAS 费,也没有用户愿意站在收银台前等几分钟的区块确认。成本和效率,永远是商业逻辑的第一性原理,而 Plasma 恰恰抓住了这两点。
再来聊聊XPL的内在逻辑。很多人觉得支付型代币没有想象空间,因为它们不像治理代币那样可以讲各种复杂的质押生息故事。但我认为恰恰相反。XPL的价值捕获是基于真实的物理消耗。每一次转账、每一次支付、每一次合约调用,都在消耗
$XPL
。这是一种最原始但也最稳健的供需模型。随着网络使用率的提升,这种通缩效应是指数级的。而且,不同于那些完全依靠增发来维持 APY 的庞氏模型,XPL的经济模型是建立在网络真实的活跃度之上的。这种“虽迟但到”的价值回归,往往比那些空中楼阁要猛烈得多。
我也深入观察了他们的社区氛围。说实话,那里没有太多的喊单党,更多的是一些在讨论技术落地和支付接口对接的开发者。这种氛围在现在的币圈简直是清流。这意味着现在的筹码结构非常健康,大部分持仓者是看好项目长期发展的坚定持有者,而不是像蝗虫一样撸完空投就跑的投机客。这种社区共识,是任何营销手段都买不来的。
当然,押注支付赛道是有风险的。最大的风险在于传统金融的打压和监管的不确定性。Plasma 想要真正走通这条路,不仅需要技术过硬,还需要极强的合规能力和商业拓展能力。目前来看,团队在这方面的布局还算稳健,没有激进地去触碰红线,而是在现有的框架内寻求最优解。
总结一下我的看法,现在的市场处于一个极度浮躁的阶段,大家都在寻找下一个百倍金狗。但往往最大的机会就藏在那些被忽视的基础设施里。Plasma 就像是当年互联网泡沫时期的光纤铺设者,当时没人觉得铺光缆赚钱,大家都去炒作互联网概念股了。但最后泡沫破灭,只有基础设施留了下来,并承载了后来的互联网黄金时代。对于我们这种想在这个行业活过三个周期的投资人来说,配置一部分像 Plasma 这样有真实造血能力的基础设施,是穿越牛熊最好的护城河。
@Plasma
$XPL
#plasma
XPL
W-BEN
·
--
gogogo
gogogo
小鳄鱼 China
·
--
[Visszajátszás] 🎙️ 🎙️ ARTX即将 上线 Aster & BG:从“可交易”到“可验证”的长期价值跃迁
01 ó 46 p 11 mp · Túl gyorsan küldesz. Kérlek, várj egy pillanatot, majd próbáld újra.
W-BEN
·
--
凌晨四点的代码审计:Vanar 到底是在做链还是在给 Web2 巨头修后门?盯着屏幕上跳动的哈希值,我的手里捏着那个早就没什么气的电子烟,窗外的天色有点发青,这已经是我在 Vanar 测试网上折腾的第三个晚上了,说实话,最开始关注这条链纯粹是因为那个看起来有点唬人的 Google Cloud 合作通告,毕竟在这个圈子里,只要稍微有点名气的项目都会去蹭一下 Web2 巨头的热度,我原本以为这又是一次典型的 PPT 创业,把 Logo 往官网上一贴就敢出来喊单,但我这人有个毛病,不喜欢听别人吹,就喜欢自己上手测,如果不把它的 RPC 节点跑崩一次,我总觉得心里不踏实。 我必须承认,Vanar 的网络响应速度确实让我有点意外,这几天我写了个脚本,模拟高频的小额交易,原本是想看看它的 Gas 机制在高并发下会不会像以太坊那样直接原地起飞,结果跑了一晚上,费用曲线平得像刚死的心电图,这一点对于想要做 AI 代理或者高频游戏的项目来说太关键了,咱们得面对现实,Solana 确实快,但那种为了 TPS 牺牲稳定性的做法我一直不敢苟同,每次看到 Solana 停机维护的公告,我就在想,如果有几十万个 AI Agent 正在链上进行微支付交互,这一停机那就是灾难性的连环爆仓,而 Vanar 给我的感觉更像是一个穿着工装的工程师,它没有去追求那种几万 TPS 的虚假繁荣,而是把延迟和稳定性做到了极致,这种工业级的稳定性显然不是给咱们这种散户炒土狗用的,明摆着就是给那些对 SLA 有着变态要求的 Web2 大厂准备的。 在这个过程中我也去对比了一下 Flow,当年的 NBA Top Shot 确实让 Flow 火了一把,但那个 Cadence 语言简直是反人类,对于我们这种习惯了 Solidity 的开发者来说,迁移成本高得离谱,Vanar 聪明就聪明在它没有去搞什么标新立异的新语言,完全兼容 EVM,我把之前在 Polygon 上跑的一套 NFT 质押合约直接 copy 过来,除了改了几个配置参数,几乎是零摩擦部署,这种无痛感对于急于转型的传统开发者来说就是最大的诱惑,但我也不得不吐槽一下他们的浏览器,有时候交易明明已经确认了,前端显示还在 pending,这种交互体验上的小瑕疵虽然不影响底层逻辑,但真的很搞心态,就像是你买了一辆法拉利,结果发现车窗升降按钮偶尔接触不良,让人怀疑团队是不是把钱都花在搞基建上了,连个好点的前端都舍不得请。 我在查阅 Vanguard 节点验证机制的时候,发现了一些很有意思的细节,他们似乎在刻意引入那些 Web2 的知名企业作为验证节点,这种做法在去中心化原教旨主义者眼里简直就是异端,觉得这是在搞联盟链,但在我看来这恰恰是 Vanar 最鸡贼的地方,它实际上是在构建一个基于声誉的信任层,对于 Nike 或者 Disney 这种级别的 IP 来说,他们根本不在乎你的链是不是哪怕只有几千个节点,他们在乎的是如果出了问题能不能找到人负责,以及数据会不会被篡改,Vanar 这种半中心化的架构,牺牲了一部分抗审查性,换来的是极致的合规和安全感,这根本就不是一条给黑客和无政府主义者设计的链,这是一条给纳斯达克上市公司的法务部门看的链。 生态的荒凉是目前最大的硬伤,这几天我在链上游荡,感觉就像是走在一个刚刚竣工的新区,马路宽阔平整,路灯锃亮,但两边全是空地,连个卖水的都没有,除了官方推的那几个应用,第三方的原生创新少得可怜,这让我想起了当年的 EOS,技术吹得震天响,最后生态里全是菠菜,Vanar 如果不能尽快把那些所谓的 Web2 合作伙伴真正转化为链上的活跃应用,那这套高性能的基建最后可能就只是个摆设,虽说现在是熊市,大家都在搞建设,但留给他们的时间窗口其实并不多了,一旦以太坊的 L2 互操作性彻底打通,这种独立 L1 的生存空间会被进一步压缩。 还有一个让我比较在意的点是它的能耗叙事,在币圈聊环保通常会被嘲笑是白左思维,但当你去跟大企业打交道时,ESG 报告就是一道绕不过去的坎,我看了一下 Vanar 的白皮书,他们在能耗追踪这一块做得非常细,甚至可以精确到每一笔交易的碳足迹,这功能对散户来说毫无卵用,但对于那些需要披露碳排放的大公司来说简直是刚需,这再次印证了我的猜想,Vanar 从头到尾就没想过要讨好散户,它的目标客户名单里全是那些穿西装打领带的人,这种定位在短期内可能不会有那种百倍币的暴富效应,因为机构进场的决策周期都很长,可一旦跑通了,那就是护城河。 用了这么久,我觉的 Vanar 就像是一个性格极其务实的理工男,它没有花里胡哨的叙事,也没有那种让人热血沸腾的革命口号,它就是默默地把路修好,把电通上,然后站在路口等着大企业把车开进来,这种策略很稳,但也真的很无聊,在目前这个充满了 AI 泡沫和 MEME 狂欢的市场里,由于它的务实,反而显得有点格格不入,但如果你是一个相信区块链最终要服务于实体经济的人,那么这条看似冷清的链,或许比那些热闹的赌场更值得多看两眼。 @Vanar $VANRY {future}(VANRYUSDT) #Vanar
凌晨四点的代码审计:Vanar 到底是在做链还是在给 Web2 巨头修后门?
盯着屏幕上跳动的哈希值,我的手里捏着那个早就没什么气的电子烟,窗外的天色有点发青,这已经是我在 Vanar 测试网上折腾的第三个晚上了,说实话,最开始关注这条链纯粹是因为那个看起来有点唬人的 Google Cloud 合作通告,毕竟在这个圈子里,只要稍微有点名气的项目都会去蹭一下 Web2 巨头的热度,我原本以为这又是一次典型的 PPT 创业,把 Logo 往官网上一贴就敢出来喊单,但我这人有个毛病,不喜欢听别人吹,就喜欢自己上手测,如果不把它的 RPC 节点跑崩一次,我总觉得心里不踏实。
我必须承认,Vanar 的网络响应速度确实让我有点意外,这几天我写了个脚本,模拟高频的小额交易,原本是想看看它的 Gas 机制在高并发下会不会像以太坊那样直接原地起飞,结果跑了一晚上,费用曲线平得像刚死的心电图,这一点对于想要做 AI 代理或者高频游戏的项目来说太关键了,咱们得面对现实,Solana 确实快,但那种为了 TPS 牺牲稳定性的做法我一直不敢苟同,每次看到 Solana 停机维护的公告,我就在想,如果有几十万个 AI Agent 正在链上进行微支付交互,这一停机那就是灾难性的连环爆仓,而 Vanar 给我的感觉更像是一个穿着工装的工程师,它没有去追求那种几万 TPS 的虚假繁荣,而是把延迟和稳定性做到了极致,这种工业级的稳定性显然不是给咱们这种散户炒土狗用的,明摆着就是给那些对 SLA 有着变态要求的 Web2 大厂准备的。
在这个过程中我也去对比了一下 Flow,当年的 NBA Top Shot 确实让 Flow 火了一把,但那个 Cadence 语言简直是反人类,对于我们这种习惯了 Solidity 的开发者来说,迁移成本高得离谱,Vanar 聪明就聪明在它没有去搞什么标新立异的新语言,完全兼容 EVM,我把之前在 Polygon 上跑的一套 NFT 质押合约直接 copy 过来,除了改了几个配置参数,几乎是零摩擦部署,这种无痛感对于急于转型的传统开发者来说就是最大的诱惑,但我也不得不吐槽一下他们的浏览器,有时候交易明明已经确认了,前端显示还在 pending,这种交互体验上的小瑕疵虽然不影响底层逻辑,但真的很搞心态,就像是你买了一辆法拉利,结果发现车窗升降按钮偶尔接触不良,让人怀疑团队是不是把钱都花在搞基建上了,连个好点的前端都舍不得请。
我在查阅 Vanguard 节点验证机制的时候,发现了一些很有意思的细节,他们似乎在刻意引入那些 Web2 的知名企业作为验证节点,这种做法在去中心化原教旨主义者眼里简直就是异端,觉得这是在搞联盟链,但在我看来这恰恰是 Vanar 最鸡贼的地方,它实际上是在构建一个基于声誉的信任层,对于 Nike 或者 Disney 这种级别的 IP 来说,他们根本不在乎你的链是不是哪怕只有几千个节点,他们在乎的是如果出了问题能不能找到人负责,以及数据会不会被篡改,Vanar 这种半中心化的架构,牺牲了一部分抗审查性,换来的是极致的合规和安全感,这根本就不是一条给黑客和无政府主义者设计的链,这是一条给纳斯达克上市公司的法务部门看的链。
生态的荒凉是目前最大的硬伤,这几天我在链上游荡,感觉就像是走在一个刚刚竣工的新区,马路宽阔平整,路灯锃亮,但两边全是空地,连个卖水的都没有,除了官方推的那几个应用,第三方的原生创新少得可怜,这让我想起了当年的 EOS,技术吹得震天响,最后生态里全是菠菜,Vanar 如果不能尽快把那些所谓的 Web2 合作伙伴真正转化为链上的活跃应用,那这套高性能的基建最后可能就只是个摆设,虽说现在是熊市,大家都在搞建设,但留给他们的时间窗口其实并不多了,一旦以太坊的 L2 互操作性彻底打通,这种独立 L1 的生存空间会被进一步压缩。
还有一个让我比较在意的点是它的能耗叙事,在币圈聊环保通常会被嘲笑是白左思维,但当你去跟大企业打交道时,ESG 报告就是一道绕不过去的坎,我看了一下 Vanar 的白皮书,他们在能耗追踪这一块做得非常细,甚至可以精确到每一笔交易的碳足迹,这功能对散户来说毫无卵用,但对于那些需要披露碳排放的大公司来说简直是刚需,这再次印证了我的猜想,Vanar 从头到尾就没想过要讨好散户,它的目标客户名单里全是那些穿西装打领带的人,这种定位在短期内可能不会有那种百倍币的暴富效应,因为机构进场的决策周期都很长,可一旦跑通了,那就是护城河。
用了这么久,我觉的 Vanar 就像是一个性格极其务实的理工男,它没有花里胡哨的叙事,也没有那种让人热血沸腾的革命口号,它就是默默地把路修好,把电通上,然后站在路口等着大企业把车开进来,这种策略很稳,但也真的很无聊,在目前这个充满了 AI 泡沫和 MEME 狂欢的市场里,由于它的务实,反而显得有点格格不入,但如果你是一个相信区块链最终要服务于实体经济的人,那么这条看似冷清的链,或许比那些热闹的赌场更值得多看两眼。
@Vanarchain
$VANRY
#Vanar
VANRY
W-BEN
·
--
说实话,每次提到 USDT 转账,大家第一反应绝对是波场。孙哥虽然争议多,但在支付这块确实把护城河挖得很深。不过最近我关注到一个叫 Plasma 的新链,口气不小,直接硬刚支付赛道,号称要解决波场最让人头疼的几个痛点。今天咱们就撇开那些复杂的白皮书,用大白话聊聊它到底能不能从波场嘴里抢下这块肥肉。 Plasma 给自己的定位特别清晰,就是专门为稳定币支付设计的 Layer 1 公链。如果你用过波场,应该知道转 USDT 得备着 TRX 做手续费,有时候波场拥堵,手续费蹭蹭往上涨,不仅贵还麻烦。Plasma 最大的杀手锏就是所谓的 Gasless 机制,简单说就是你转 USDT 不需要持有它的原生代币 $XPL,甚至项目方可以通过 Paymaster 机制帮你把手续费免了。这对我们这种经常还要去交易所买点 TRX 充当路费的散户来说,体验简直是降维打击。 从技术上看,它兼容 EVM,也就是小狐狸钱包能直接用,不用像 Solana 那样再去下个新钱包,这对老韭菜迁移成本很低。团队方面虽然比较神秘,但从去年主网公开发售超募的情况看,资本运作能力很强。而且我看了一下链上数据,它的出块速度确实快,号称亚秒级确认,这点在支付场景里很关键。 代币模型上,总量100亿枚,目前流通量大概20%左右。目前的币价相比去年的高点已经回调了不少,处于一个相对冷静的洗盘期。对于二级市场来说,现在的市值不算巨无霸,还有想象空间。优势是体验真的丝滑,没有磨损。 落地前景方面,如果它能搞定几个大的跨境支付场景,或者被更多二线交易所作为主要提币通道,那流量会很恐怖。个人感觉,如果你是做跨境电商或者频繁转账的,可以关注下它的生态进展。操作上,目前币价在一个低位震荡,适合分批建仓,不用梭哈,毕竟挑战行业老大是个苦力活。 @Plasma $XPL {future}(XPLUSDT) #plasma
说实话,每次提到 USDT 转账,大家第一反应绝对是波场。孙哥虽然争议多,但在支付这块确实把护城河挖得很深。不过最近我关注到一个叫 Plasma 的新链,口气不小,直接硬刚支付赛道,号称要解决波场最让人头疼的几个痛点。今天咱们就撇开那些复杂的白皮书,用大白话聊聊它到底能不能从波场嘴里抢下这块肥肉。
Plasma 给自己的定位特别清晰,就是专门为稳定币支付设计的 Layer 1 公链。如果你用过波场,应该知道转 USDT 得备着 TRX 做手续费,有时候波场拥堵,手续费蹭蹭往上涨,不仅贵还麻烦。Plasma 最大的杀手锏就是所谓的 Gasless 机制,简单说就是你转 USDT 不需要持有它的原生代币
$XPL
,甚至项目方可以通过 Paymaster 机制帮你把手续费免了。这对我们这种经常还要去交易所买点 TRX 充当路费的散户来说,体验简直是降维打击。
从技术上看,它兼容 EVM,也就是小狐狸钱包能直接用,不用像 Solana 那样再去下个新钱包,这对老韭菜迁移成本很低。团队方面虽然比较神秘,但从去年主网公开发售超募的情况看,资本运作能力很强。而且我看了一下链上数据,它的出块速度确实快,号称亚秒级确认,这点在支付场景里很关键。
代币模型上,总量100亿枚,目前流通量大概20%左右。目前的币价相比去年的高点已经回调了不少,处于一个相对冷静的洗盘期。对于二级市场来说,现在的市值不算巨无霸,还有想象空间。优势是体验真的丝滑,没有磨损。
落地前景方面,如果它能搞定几个大的跨境支付场景,或者被更多二线交易所作为主要提币通道,那流量会很恐怖。个人感觉,如果你是做跨境电商或者频繁转账的,可以关注下它的生态进展。操作上,目前币价在一个低位震荡,适合分批建仓,不用梭哈,毕竟挑战行业老大是个苦力活。
@Plasma
$XPL
#plasma
XPL
TRX
W-BEN
·
--
🎙️ Buy the DIP
Vége
03 ó 31 p 14 mp
9.1k
23
16
W-BEN
·
--
在Piecrust的代码废墟里寻找华尔街的入场券:一个Dusk节点的硬核自白最近把服务器的日志级别调到了Debug模式,盯着Dusk网络里那些疯狂跳动的哈希值,我突然有一种错觉,仿佛自己不是在维护一个区块链节点,而是在看守一台正在为华尔街印制入场券的精密机床。市面上关于RWA(现实世界资产)的讨论热火朝天,仿佛明天贝莱德就会把几万亿美金的国债搬到链上,但当你真正深入到底层代码,去跑一跑那些所谓的“合规公链”时,你会发现大部分项目连基本的并发处理都没搞定。Dusk在这群妖魔鬼怪里显得格外另类,甚至有点“轴”,它没有选择简单的EVM兼容路线来蹭以太坊的生态红利,而是死磕了一套基于Wasm的Piecrust虚拟机,这种技术洁癖在浮躁的币圈简直就是一种自杀行为,但也正是这种自杀式的坚持,让我看到了它在未来金融基础设施战争中存活的可能性。 习惯了Solidity那种所见即所得的编程逻辑后,上Dusk写合约简直就是一场灾难。你必须彻底转换思维,去理解那个该死的零知识证明电路。Piecrust虚拟机的核心卖点是隐私计算的高效性,它宣称利用了零拷贝反序列化技术,能让合约执行速度飞起。实测下来,执行速度确实快,但开发体验简直是地狱级。我在调试一个简单的资产发行合约时,因为一个内存指针的越界问题,整整卡了两天。文档里关于Rust绑定的说明还是三个月前的版本,很多API接口已经改得面目全非,我只能去GitHub的提交记录里翻代码找答案。这种时候你真的会怀疑人生,想着为什么要放着好好的EVM不玩,跑来这里受罪。但当你最终跑通了那个带有合规审查功能的转账逻辑,看到那行“Proof Verified”在终端亮起时,那种成就感是无法言喻的。它意味着你刚刚完成了一笔既符合反洗钱规定,又彻底隐藏了交易金额和双方身份的操作,这在以太坊那条“裸奔链”上是绝对不可能实现的。 对比一下隔壁的Aleo,虽然大家都在讲隐私,但路子完全不同。Aleo更像是一个通用的计算平台,试图用ZK-Cloud把所有链下计算都包圆了,野心太大反而显得臃肿。Dusk则非常聚焦,它的一切设计都是为了金融资产的清结算服务的。它的XSC标准简直就是给受监管的证券代币量身定制的,在协议层就内置了白名单和合规检查,而不是像以太坊上的ERC-1400那样,要在合约层打一堆补丁。这种底层架构的差异,决定了当真正的大资金进场时,它们会选择谁。高盛不会愿意在一个任何人都能随便发币、充满黑客攻击风险的通用链上交易债券,他们需要的是一个类似Dusk这样,从基因里就写满了“合规”二字的封闭环境。虽然现在看起来这很像是一个联盟链的做派,但Dusk通过SBA共识机制,硬是在去中心化和合规之间撕开了一道口子。 但这并不代表Dusk就完美无缺。相反,它现在的问题多如牛毛。除了刚才吐槽的文档滞后,跨链桥的体验也让人抓狂。我在尝试把一笔测试代币从以太坊Goerli跨到Dusk测试网时,中间卡了足足半小时,一度以为资产丢了。这种用户体验如果放在主网,早就被散户骂死了。而且,目前的生态应用极其匮乏,除了官方那个Citadel身份协议和几个Demo级别的DEX,链上几乎是一片荒原。这其实是所有非EVM链的通病,开发门槛太高,导致没有土狗项目方愿意来这里发盘子。没有土狗就没有暴富效应,没有暴富效应就没有流量,这是一个死循环。Dusk似乎并不急着打破这个循环,团队那帮人看起来更像是做学术的,而不是做市场的,每次AMA都在讲密码学原理,听得人昏昏欲睡。 不过,从另一个角度看,这也许正是机会所在。现在的市场太嘈杂了,到处都是为了叙事而叙事的项目。Dusk这种磨了六年剑的老古董,反而在技术积淀上显得很扎实。我看过那个盲标竞价的算法实现,利用零知识证明来隐藏出块者的身份,从而防止DoS攻击,这个逻辑非常性感。相比Solana那种甚至是能预测出块顺序的机制,Dusk的随机性显然更符合去中心化的原教旨主义。虽然这牺牲了一定的性能,导致现在的TPS还没法和那些号称百万吞吐量的链比,但在金融领域,安全和隐私永远是排在速度前面的。 我在跑节点的过程中还发现了一个有趣的现象,Dusk对硬件的要求并没有传说中那么变态。这得益于Plonk协议的通用参考串设置,不需要像Groth16那样每次都要搞个仪式。这意味着未来的节点可以跑在更轻量级的设备上,这对于去中心化是一个巨大的利好。而不像某些高性能公链,节点配置要求高到只有数据中心才跑得起,最后变成了事实上的中心化。当然,前提是Dusk能解决目前偶尔出现的内存泄漏问题,不然我的服务器风扇迟早要罢工。 现在的Dusk就像是一个还没装修好的地下金库,墙壁粗糙,空气里弥漫着水泥味,甚至连门锁都还在调试。路过的人可能会嫌弃它丑,嫌弃它难用,转身去旁边装修豪华的赌场玩老虎机。但真正懂行的银行家知道,那个赌场随时可能倒闭,而这个金库,一旦建成,就是固若金汤的堡垒。我在赌的,就是这个堡垒完工的那一天。哪怕现在的代码写得让人想骂娘,哪怕那个转账界面丑得像上世纪90年代的软件,我还是愿意在这个黑色的终端窗口前多守一会儿。毕竟,在加密世界里,真正的革命往往都是披着丑陋的外衣悄悄到来的,等所有人都觉得它好用的时候,你已经买不起它的门票了。 #dusk @Dusk_Foundation $DUSK {spot}(DUSKUSDT)
在Piecrust的代码废墟里寻找华尔街的入场券:一个Dusk节点的硬核自白
最近把服务器的日志级别调到了Debug模式,盯着Dusk网络里那些疯狂跳动的哈希值,我突然有一种错觉,仿佛自己不是在维护一个区块链节点,而是在看守一台正在为华尔街印制入场券的精密机床。市面上关于RWA(现实世界资产)的讨论热火朝天,仿佛明天贝莱德就会把几万亿美金的国债搬到链上,但当你真正深入到底层代码,去跑一跑那些所谓的“合规公链”时,你会发现大部分项目连基本的并发处理都没搞定。Dusk在这群妖魔鬼怪里显得格外另类,甚至有点“轴”,它没有选择简单的EVM兼容路线来蹭以太坊的生态红利,而是死磕了一套基于Wasm的Piecrust虚拟机,这种技术洁癖在浮躁的币圈简直就是一种自杀行为,但也正是这种自杀式的坚持,让我看到了它在未来金融基础设施战争中存活的可能性。
习惯了Solidity那种所见即所得的编程逻辑后,上Dusk写合约简直就是一场灾难。你必须彻底转换思维,去理解那个该死的零知识证明电路。Piecrust虚拟机的核心卖点是隐私计算的高效性,它宣称利用了零拷贝反序列化技术,能让合约执行速度飞起。实测下来,执行速度确实快,但开发体验简直是地狱级。我在调试一个简单的资产发行合约时,因为一个内存指针的越界问题,整整卡了两天。文档里关于Rust绑定的说明还是三个月前的版本,很多API接口已经改得面目全非,我只能去GitHub的提交记录里翻代码找答案。这种时候你真的会怀疑人生,想着为什么要放着好好的EVM不玩,跑来这里受罪。但当你最终跑通了那个带有合规审查功能的转账逻辑,看到那行“Proof Verified”在终端亮起时,那种成就感是无法言喻的。它意味着你刚刚完成了一笔既符合反洗钱规定,又彻底隐藏了交易金额和双方身份的操作,这在以太坊那条“裸奔链”上是绝对不可能实现的。
对比一下隔壁的Aleo,虽然大家都在讲隐私,但路子完全不同。Aleo更像是一个通用的计算平台,试图用ZK-Cloud把所有链下计算都包圆了,野心太大反而显得臃肿。Dusk则非常聚焦,它的一切设计都是为了金融资产的清结算服务的。它的XSC标准简直就是给受监管的证券代币量身定制的,在协议层就内置了白名单和合规检查,而不是像以太坊上的ERC-1400那样,要在合约层打一堆补丁。这种底层架构的差异,决定了当真正的大资金进场时,它们会选择谁。高盛不会愿意在一个任何人都能随便发币、充满黑客攻击风险的通用链上交易债券,他们需要的是一个类似Dusk这样,从基因里就写满了“合规”二字的封闭环境。虽然现在看起来这很像是一个联盟链的做派,但Dusk通过SBA共识机制,硬是在去中心化和合规之间撕开了一道口子。
但这并不代表Dusk就完美无缺。相反,它现在的问题多如牛毛。除了刚才吐槽的文档滞后,跨链桥的体验也让人抓狂。我在尝试把一笔测试代币从以太坊Goerli跨到Dusk测试网时,中间卡了足足半小时,一度以为资产丢了。这种用户体验如果放在主网,早就被散户骂死了。而且,目前的生态应用极其匮乏,除了官方那个Citadel身份协议和几个Demo级别的DEX,链上几乎是一片荒原。这其实是所有非EVM链的通病,开发门槛太高,导致没有土狗项目方愿意来这里发盘子。没有土狗就没有暴富效应,没有暴富效应就没有流量,这是一个死循环。Dusk似乎并不急着打破这个循环,团队那帮人看起来更像是做学术的,而不是做市场的,每次AMA都在讲密码学原理,听得人昏昏欲睡。
不过,从另一个角度看,这也许正是机会所在。现在的市场太嘈杂了,到处都是为了叙事而叙事的项目。Dusk这种磨了六年剑的老古董,反而在技术积淀上显得很扎实。我看过那个盲标竞价的算法实现,利用零知识证明来隐藏出块者的身份,从而防止DoS攻击,这个逻辑非常性感。相比Solana那种甚至是能预测出块顺序的机制,Dusk的随机性显然更符合去中心化的原教旨主义。虽然这牺牲了一定的性能,导致现在的TPS还没法和那些号称百万吞吐量的链比,但在金融领域,安全和隐私永远是排在速度前面的。
我在跑节点的过程中还发现了一个有趣的现象,Dusk对硬件的要求并没有传说中那么变态。这得益于Plonk协议的通用参考串设置,不需要像Groth16那样每次都要搞个仪式。这意味着未来的节点可以跑在更轻量级的设备上,这对于去中心化是一个巨大的利好。而不像某些高性能公链,节点配置要求高到只有数据中心才跑得起,最后变成了事实上的中心化。当然,前提是Dusk能解决目前偶尔出现的内存泄漏问题,不然我的服务器风扇迟早要罢工。
现在的Dusk就像是一个还没装修好的地下金库,墙壁粗糙,空气里弥漫着水泥味,甚至连门锁都还在调试。路过的人可能会嫌弃它丑,嫌弃它难用,转身去旁边装修豪华的赌场玩老虎机。但真正懂行的银行家知道,那个赌场随时可能倒闭,而这个金库,一旦建成,就是固若金汤的堡垒。我在赌的,就是这个堡垒完工的那一天。哪怕现在的代码写得让人想骂娘,哪怕那个转账界面丑得像上世纪90年代的软件,我还是愿意在这个黑色的终端窗口前多守一会儿。毕竟,在加密世界里,真正的革命往往都是披着丑陋的外衣悄悄到来的,等所有人都觉得它好用的时候,你已经买不起它的门票了。
#dusk
@Dusk
$DUSK
DUSK
W-BEN
·
--
现在只要是个项目,不蹭点AI的热度仿佛就在VC面前抬不起头。但你仔细扒开那些所谓的“AI公链”外衣,里面装的还是那套低效的EVM逻辑。大多数项目所谓的创新,无非是把链下的AI模型结果强行哈希上链,这种“外挂式AI”跟几十年前给马车装个导航仪有什么区别? 这也是为什么我在测试Vanar Chain时多留意了一下的原因。它给我的核心触动在于“隐形”。对于真正的Web3 Mass Adoption来说,用户根本不应该感知到他在用区块链。Vanar那种近乎无感的Gas费策略和账户抽象体系,终于让人看到点摆脱“助记词恐惧症”的希望。我尝试部署了一个简单的生成式NFT脚本,整个过程丝滑得像是在调用OpenAI的API,而不是在和以太坊那个拥堵的内存池搏斗。 对比一下Solana,虽然Solana快,但那是物理层面的暴力堆砌,对于AI这种需要复杂逻辑交互的场景,它的开发者工具还是太“硬”了。而Vanar显然是想做Web2和Web3中间的那个“翻译官”,让传统的Java或Python开发者能直接上手写智能合约,这点在技术栈的亲和力上确实赢了一筹。 不过,吹归吹,问题也是肉眼可见的。Vanar现在的浏览器和数据看板简直简陋得令人发指,想追踪一笔跨合约调用的内部交易,能让人找数据找到崩溃。而且,虽然底层声称支持AI原生,但目前官方提供的AI预言机接口文档写得语焉不详,很多功能还在画饼阶段。 如果把现在的公链比作操作系统,以太坊是DOS,由于太卡只能玩扫雷;Vanar想做Windows,让普通人也能用。但现在的完成度也就是个Windows 95的水平,蓝屏和Bug在所难免。但至少,方向对了。在这个全是空气币的时代,能沉下心来做“中间件”体验的项目,值得放进自选列表里观察一阵子。@Vanar $VANRY {future}(VANRYUSDT) #Vanar
现在只要是个项目,不蹭点AI的热度仿佛就在VC面前抬不起头。但你仔细扒开那些所谓的“AI公链”外衣,里面装的还是那套低效的EVM逻辑。大多数项目所谓的创新,无非是把链下的AI模型结果强行哈希上链,这种“外挂式AI”跟几十年前给马车装个导航仪有什么区别?
这也是为什么我在测试Vanar Chain时多留意了一下的原因。它给我的核心触动在于“隐形”。对于真正的Web3 Mass Adoption来说,用户根本不应该感知到他在用区块链。Vanar那种近乎无感的Gas费策略和账户抽象体系,终于让人看到点摆脱“助记词恐惧症”的希望。我尝试部署了一个简单的生成式NFT脚本,整个过程丝滑得像是在调用OpenAI的API,而不是在和以太坊那个拥堵的内存池搏斗。
对比一下Solana,虽然Solana快,但那是物理层面的暴力堆砌,对于AI这种需要复杂逻辑交互的场景,它的开发者工具还是太“硬”了。而Vanar显然是想做Web2和Web3中间的那个“翻译官”,让传统的Java或Python开发者能直接上手写智能合约,这点在技术栈的亲和力上确实赢了一筹。
不过,吹归吹,问题也是肉眼可见的。Vanar现在的浏览器和数据看板简直简陋得令人发指,想追踪一笔跨合约调用的内部交易,能让人找数据找到崩溃。而且,虽然底层声称支持AI原生,但目前官方提供的AI预言机接口文档写得语焉不详,很多功能还在画饼阶段。
如果把现在的公链比作操作系统,以太坊是DOS,由于太卡只能玩扫雷;Vanar想做Windows,让普通人也能用。但现在的完成度也就是个Windows 95的水平,蓝屏和Bug在所难免。但至少,方向对了。在这个全是空气币的时代,能沉下心来做“中间件”体验的项目,值得放进自选列表里观察一阵子。
@Vanarchain
$VANRY
#Vanar
VANRY
W-BEN
·
--
说实话,这两年折腾去中心化存储,我已经被Arweave的“永久存储”叙事洗脑太久了。直到最近上手试了下Walrus,才突然意识到一个被忽视的逻辑漏洞:绝大多数App根本不需要把数据存一万年,我们需要的是便宜、快,还能随时改。 前两天帮一个做SocialFi的朋友迁移数据,之前的方案是Arweave,结果发现成本高得离谱,而且一旦上传了想改个头像或者删个违规贴,简直是噩梦。AR的设计更像是一个“博物馆”,东西放进去就别想动,适合存历史文献,但拿来跑高频交互的应用简直是灾难。转头研究Walrus,发现它的逻辑完全不同。它基于Sui网络,用了一种叫“Red Stuff”的二维纠删码技术。简单说,它不像Filecoin那样需要极其昂贵的硬件来证明存储,也不像AR那样全网疯全复制。它只需要4-5倍的冗余就能保证数据不丢。 最让我爽的一点是,它支持直接的HTTP读取。你知道这意味着什么吗?意味着我不需要像在IPFS上那样,到处找好用的网关,或者自己跑个不仅慢还老掉线的节点。在Walrus上,浏览器就能直接读数据,体验几乎跟Web2的云存储没区别。这种“CDN级别”的响应速度,才是有可能把Web2用户骗进来的关健。 当然,槽点也不是没有。目前的开发文档写得有点过于“极客”,很多参数解释得不清不楚,害我对着CLI调了半天才跑通一个简单的上传流程。而且生态里的工具链还在早期,跟AWS那种傻瓜式操作比还有差距。但从技术底层看,Walrus这种“租赁式”+“可编程”的思路,比起死磕“永久”,显然更符合商业直觉。毕竟,谁知道50年后这行代码还存不存再呢? @WalrusProtocol $WAL {future}(WALUSDT) #Walrus
说实话,这两年折腾去中心化存储,我已经被Arweave的“永久存储”叙事洗脑太久了。直到最近上手试了下Walrus,才突然意识到一个被忽视的逻辑漏洞:绝大多数App根本不需要把数据存一万年,我们需要的是便宜、快,还能随时改。
前两天帮一个做SocialFi的朋友迁移数据,之前的方案是Arweave,结果发现成本高得离谱,而且一旦上传了想改个头像或者删个违规贴,简直是噩梦。AR的设计更像是一个“博物馆”,东西放进去就别想动,适合存历史文献,但拿来跑高频交互的应用简直是灾难。转头研究Walrus,发现它的逻辑完全不同。它基于Sui网络,用了一种叫“Red Stuff”的二维纠删码技术。简单说,它不像Filecoin那样需要极其昂贵的硬件来证明存储,也不像AR那样全网疯全复制。它只需要4-5倍的冗余就能保证数据不丢。
最让我爽的一点是,它支持直接的HTTP读取。你知道这意味着什么吗?意味着我不需要像在IPFS上那样,到处找好用的网关,或者自己跑个不仅慢还老掉线的节点。在Walrus上,浏览器就能直接读数据,体验几乎跟Web2的云存储没区别。这种“CDN级别”的响应速度,才是有可能把Web2用户骗进来的关健。
当然,槽点也不是没有。目前的开发文档写得有点过于“极客”,很多参数解释得不清不楚,害我对着CLI调了半天才跑通一个简单的上传流程。而且生态里的工具链还在早期,跟AWS那种傻瓜式操作比还有差距。但从技术底层看,Walrus这种“租赁式”+“可编程”的思路,比起死磕“永久”,显然更符合商业直觉。毕竟,谁知道50年后这行代码还存不存再呢?
@Walrus 🦭/acc
$WAL
#Walrus
WAL
AR
SUI
A további tartalmak felfedezéséhez jelentkezz be
Bejelentkezés
Fedezd fel a legfrissebb kriptovaluta-híreket
⚡️ Vegyél részt a legfrissebb kriptovaluta megbeszéléseken
💬 Lépj kapcsolatba a kedvenc alkotóiddal
👍 Élvezd a téged érdeklő tartalmakat
E-mail-cím/telefonszám
Regisztráció
Bejelentkezés
Népszerű témák
WhenWillBTCRebound
805,276 megtekintés
6,841 beszélgető
Bitcoin Price Forecasts Turn Bearish as BTC Follows Old Bear Market Patterns
bull_club
·
8 kedvelés
·
10.3k megtekintés
PreciousMetalsTurbulence
2.4M megtekintés
17,766 beszélgető
MarketCorrection
14.6M megtekintés
32,761 beszélgető
Több megtekintése
Legfrissebb hírek
PURCH Market Cap Surges with Significant 24-Hour Increase
--
South Korea's Semiconductor Exports Expected to Remain Strong Through 2026
--
India's Record Debt Issuance Expected to Impact Bond Market
--
Több megtekintése
Oldaltérkép
Egyéni sütibeállítások
Platform szerződési feltételek