Home
Notification
Profile
Trending Articles
News
Bookmarks
History
Creator Center
Settings
Luna月芽
516
Posts
Luna月芽
Report
Block User
Follow
Open Trade
High-Frequency Trader
4.4 Months
46
Following
13.5K+
Followers
5.0K+
Liked
952
Shared
Posts
Portfolio
All
Quotes
PINNED
Luna月芽
·
--
Bullish
💗怎么一举一动都踩在我的心上,你是贝多芬嘛?
💗怎么一举一动都踩在我的心上,你是贝多芬嘛?
PINNED
Luna月芽
·
--
出来玩啦🥰
出来玩啦🥰
Luna月芽
·
--
最近总在反复琢磨 Web3 的“完全体”到底还缺哪一块拼图。 显然不仅仅是更高的 TPS 或者几乎归零的 Gas 费。每次看到那些标榜“永久”、“不可篡改”的 NFT 或者 dApp,背后其实还得依赖传统的中心化云服务商来托管前端和高清素材,心里就觉得挺讽刺的。如果最重的那部分数据还在 Web2 的服务器里,那所谓的去中心化,是不是只去了一半? 这几天沉下心来看 @WalrusProtocol 的技术文档,那种“路终于走通了”的感觉越来越强烈。 我在想,也许我们之前对区块链存储的理解有点太“硬核”了。非要把所有数据都塞进昂贵的共识层里,既不经济也不现实。Walrus 这种专注于处理“Blobs”(那些非结构化的大数据块)的思路,倒是有点返璞归真的味道。它不试图去抢智能合约的风头,而是安安静静地做一个极其高效、甚至有点枯燥的“去中心化硬盘”。 特别是看到它在 Sui 生态里的那种原生契合度,让我开始构想一些以前不敢想的场景:完全跑在链上的复杂游戏、真正属于用户且无法被审查的去中心化社交媒体,甚至是未来 AI 模型的分布式托管。这些东西在以前受限于存储成本,只能是 PPT 里的概念,但如果存储成本能被 Walrus 压到足够低,逻辑就全变了。 与其说是为了看一个项目,不如说是在观察一种必然的基础设施演进。在这个充满泡沫的行业里,能看到这种扎扎实实解决“数据该放在哪”这种底层问题的方案,反倒让人觉得心里踏实。 虽然现在还在早期阶段,技术还需要时间去打磨和验证,但这种把数据所有权真正还给用户的尝试,无论如何都值得多花点时间去关注。毕竟,如果 Web3 真的要到来,它一定需要一个属于自己的、不会被任何人“拔网线”的数据仓库。 继续观察,静候花开。#walrus $WAL
最近总在反复琢磨 Web3 的“完全体”到底还缺哪一块拼图。
显然不仅仅是更高的 TPS 或者几乎归零的 Gas 费。每次看到那些标榜“永久”、“不可篡改”的 NFT 或者 dApp,背后其实还得依赖传统的中心化云服务商来托管前端和高清素材,心里就觉得挺讽刺的。如果最重的那部分数据还在 Web2 的服务器里,那所谓的去中心化,是不是只去了一半?
这几天沉下心来看
@Walrus 🦭/acc
的技术文档,那种“路终于走通了”的感觉越来越强烈。
我在想,也许我们之前对区块链存储的理解有点太“硬核”了。非要把所有数据都塞进昂贵的共识层里,既不经济也不现实。Walrus 这种专注于处理“Blobs”(那些非结构化的大数据块)的思路,倒是有点返璞归真的味道。它不试图去抢智能合约的风头,而是安安静静地做一个极其高效、甚至有点枯燥的“去中心化硬盘”。
特别是看到它在 Sui 生态里的那种原生契合度,让我开始构想一些以前不敢想的场景:完全跑在链上的复杂游戏、真正属于用户且无法被审查的去中心化社交媒体,甚至是未来 AI 模型的分布式托管。这些东西在以前受限于存储成本,只能是 PPT 里的概念,但如果存储成本能被 Walrus 压到足够低,逻辑就全变了。
与其说是为了看一个项目,不如说是在观察一种必然的基础设施演进。在这个充满泡沫的行业里,能看到这种扎扎实实解决“数据该放在哪”这种底层问题的方案,反倒让人觉得心里踏实。
虽然现在还在早期阶段,技术还需要时间去打磨和验证,但这种把数据所有权真正还给用户的尝试,无论如何都值得多花点时间去关注。毕竟,如果 Web3 真的要到来,它一定需要一个属于自己的、不会被任何人“拔网线”的数据仓库。
继续观察,静候花开。
#walrus
$WAL
SUI
WAL
Luna月芽
·
--
在数据洪流中寻找诺亚方舟:关于去中心化存储、遗忘与 Walrus 的深夜随想凌晨三点。我又在盯着屏幕上的那个 loading 图标发呆。 有时候我在想,我们这一代人是不是患上了某种“数字松鼠症”。我看着硬盘里那些堆积如山的照片、几年前写了一半的代码、存下来却再也没看过的 PDF 文档,还有那些为了防止“404”而疯狂截图的网页快照。我们囤积数据,就像以前的人囤积过冬的粮食一样。但是,粮食会烂在仓里,而数据呢?数据会烂在中心化服务器的某个角落里,或者更糟糕——因为某家公司改变了服务条款,或者仅仅是因为我的信用卡过期了一天,它们就凭空消失了。 前几天看到一个新闻,某个曾经红极一时的云盘服务宣布停止运营。那一刻我心里咯噔一下。不是因为我用那个网盘,而是那种令人窒息的不安全感又来了。我们把记忆、资产、甚至灵魂的一部分托付给了云端,但那个“云”,本质上只是别人的电脑。 这就让我想到了 Web3。我们整天喊着“Not your keys, not your coins”(没有私钥就没有资产),但在存储这事儿上,我们好像还在妥协。我们把 NFT 的元数据存在中心化服务器上,我们把 dApp 的前端部署在 AWS 上。这算什么去中心化?这就像是把金库的门换成了最先进的生物识别锁,但金库的墙壁却是纸糊的。 直到最近,我在研究 Sui 生态的时候,顺藤摸瓜摸到了 @walrusprotocol。 说实话,第一次看到这个名字的时候,我脑子里浮现的是那只长着长牙、笨重的海象。我当时就在想:为什么叫 Walrus?海象皮厚、耐寒、体积大?或者是披头士的那首歌?但随着我读完白皮书,啃完技术文档,我现在坐在这里,盯着天花板,脑子里的那个“海象”形象变了。它不再笨重,它变成了一种令人惊叹的、精密的数学美感。 我在想,Walrus 解决的不仅仅是“存东西”这个问题,它在试图解决“如何以人类能够承受的成本,永久地保存巨量信息”这个终极难题。 让我捋一捋这几天的思考路径。 以前我对去中心化存储(DSN)是有偏见的。我的刻板印象是:贵、慢、难用。就像 Arweave,那是永久存储的圣杯,但如果你让我把几个 T 的视频素材存上去,那成本估计能让我破产。IPFS 呢?它更像是一个寻址协议,如果我不自己跑节点或者花钱请 Pinning Service,我的数据还是会像风中的尘埃一样散去。 这里有个一直困扰我的“不可能三角”:我们要去中心化(安全/抗审查),我们要便宜(可扩展性),我们还要快(检索速度)。 大多数区块链在处理存储时,采用的是全节点复制。这就像是,我要存一张照片,全世界所有的节点都要在自己的硬盘里存一份这张照片的副本。这太疯狂了。这就像是为了不弄丢一本书,要求全世界每个图书馆都必须进货这本书。这种冗余度简直是对资源的犯罪。所以现在的 Layer 1 区块链才会因为状态膨胀(State Bloat)而变得越来越臃肿,Gas 费越来越高。 然后 Walrus 出现了,带着它的“纠删码”(Erasure Coding)。 我现在满脑子都是那个“把花瓶打碎”的比喻。 想象一下,我有一个珍贵的花瓶(我的数据文件)。传统的区块链存储是买了100个同样的花瓶,分给100个人保管。只要有一个人活着,花瓶就在。但这太贵了。 Walrus 的做法是:把这个花瓶打碎成100个碎片(Shards),然后通过某种极其高深的数学魔法(这就是他们引以为傲的 "Red Stuff" 编码算法),把这100个碎片再进行编码处理,分发给网络中的节点。最神奇的地方在于,我不需要召回这100个碎片来复原花瓶。我可能只需要其中的任意30个、或者40个碎片,就能完美地、一模一样地还原出那个花瓶。 坐在电脑前,我试图在脑海里模拟这个过程。这种机制带来的震撼感在于“效率”。这意味着,为了保证数据的安全性,网络不需要存储 100 倍的数据量,可能只需要存储 4 倍、5 倍甚至更少的冗余量,就能达到同样的、甚至更高的可靠性。 这就直接击穿了那个“贵”的痛点。 我看着 Walrus 的文档,心里在盘算:如果存储成本能降低到和 AWS S3 这种中心化巨头差不多的水平,甚至更低,那将会发生什么? 那意味着“全链上应用”不再是个伪命题。 我现在正在脑补一个场景:一个完全去中心化的 YouTube。现在的视频平台,最大的成本就是带宽和存储。创作者被平台算法绑架,因为平台付了存储费,平台就是老板。但如果通过 Walrus,视频以 blob(二进制大对象)的形式碎片化存储在去中心化网络中,极其廉价,且归属权完全由链上的 NFT 或智能合约控制。那我就真的拥有了我的视频。没人能删我的号,没人能屏蔽我的创作。前端界面可以有无数个,但数据源只有一个,且永远在那里。 这不仅仅是技术升级,这是权力结构的转移。 而且,为什么是 Sui? 这几天我一直在思考 @walrusprotocol 和 Sui 的关系。这不仅仅是因为它们出自同一个团队背景(Mysten Labs),更像是一种战略上的互补。Sui 像是一辆在那疯狂飙车的法拉利,专注于高并发、低延迟的交易执行;而 Walrus 就像是紧跟其后的重型运输机,负责承载那些法拉利装不下的重物——图片、视频、音频、复杂的 AI 模型权重。 说到 AI,这又触动了我的另一个兴奋点。 现在的 AI 模型,尤其是大语言模型,它们的权重文件大得吓人。而且这些模型正在变得越来越不透明。OpenAI 不 Open,我们不知道他们用了什么数据训练,也不知道模型被篡改过没有。 如果把 AI 模型的训练数据和权重文件存在 Walrus 上呢? 我在想象一个未来:AI 代理(Agent)在 Sui 网络上高速交易,而它们的“大脑”(模型权重)和“记忆”(历史数据)则安全地存储在 Walrus 上。这才是真正的去中心化 AI。我们可以验证这个模型是不是原版,我们可以追溯它的训练数据来源。这种透明度,在 AI 统治未来的时代,可能比黄金还珍贵。 昨天在社区里潜水,看到有人在讨论 Walrus 的代币经济学和节点激励。虽然细节还在打磨,但我感觉到一种久违的兴奋。那种感觉就像是 2017 年第一次读以太坊白皮书,或者是 2020 年第一次玩 DeFi 挖矿。这是一种“我在见证地基被浇筑”的感觉。 当然,我也在提醒自己不要盲目乐观。技术落地的过程总是充满了 bug 和妥协。 我在想,作为早期参与者,我现在能做什么?仅仅是发个推特吗?不,我得去试用。我得去跑一下他们的 Devnet。我想看看那个所谓的“快速检索”到底有多快。如果我在 Walrus 上存一部 4K 电影,它能像流媒体一样流畅播放吗?还是说需要等待漫长的重组过程? 官方说 Walrus 的设计即使在大量节点掉线(拜占庭故障)的情况下也能从剩余的碎片中恢复数据。我想象着那个场景:一场数字世界的灾难降临,大部分服务器宕机,但只要还有一小部分节点在运行,人类的数字遗产——那些代码、艺术品、历史记录——就能像凤凰一样从碎片中重生。这听起来是不是有点浪漫主义?但在代码的世界里,数学就是这种浪漫的保障。 还有一个点让我觉得很有意思:Walrus 并没有试图去建立一个新的 Layer 1 链来专门做存储,而是作为一个独立的存储层,可以服务于任何生态。这让我想到了“积木”。Web3 的美妙之处就在于可组合性。Walrus 不想做全能的神,它只想做一个最稳固的仓库。这种专注让我对它更有信心。 看着窗外,天快亮了。街道上的路灯开始熄灭,但互联网上的数据流永远不会停止。 我们正处在一个转折点上。过去,我们为了便利出卖了所有权;现在,技术终于发展到了可以兼得的程度。我们既可以拥有云存储的便利(速度、成本),又能拥有区块链的特性(所有权、抗审查)。 我翻看着 @walrusprotocol 的推特,看着那些关于“blob”的技术讨论,我突然意识到,这可能就是 Web3 大规模采用(Mass Adoption)所缺失的那块拼图。我们一直在做金融(DeFi),一直在做图片(NFT),但我们一直没能把真正的“内容”和“应用”搬上来,因为太贵了,太重了。 Walrus 可能会打破这个瓶颈。 当存储变得极其廉价且去中心化时,很多现在看起来荒谬的想法就会变得合理。比如,把整个人类的维基百科、所有的开源代码库、所有的公共领域电影,都做成一个巨大的、不可篡改的 NFT 集合,存储在 Walrus 上。这不是为了炒作,而是为了文明的备份。 或许几年后,当我再回头看这篇凌晨写下的胡思乱想时,我会嘲笑自己当时的肤浅,或者,我会庆幸自己在这个早期阶段就关注到了这只“海象”。 不管怎样,我决定不再做那个焦虑的数字囤积者了。我要开始尝试把我的数据,真正地掌握在自己手里。这不仅仅是换个硬盘,这是换一种活法。 如果 Web3 是一场革命,那么存储就是它的后勤补给线。没有稳固的后勤,前线跑得再快也是送死。Walrus 正在铺设这条补给线,而且是用一种极其聪明、高效的方式。 我想,我也许该去学习一下 Rust 语言了,或者深入研究一下 Move。因为如果 Walrus 真的做成了,那么在它之上构建应用将会是下一个周期的 alpha。 天亮了。看着屏幕上写下的这些文字,我觉得这种思考是有价值的。这不是写给谁看的教程,这是我自己理清思路的过程。在这个充满噪音的市场里,能够静下心来理解一个协议的底层逻辑,本身就是一种奢侈。 #Walrus,这不仅仅是一个标签,这可能是通往真正去中心化互联网的一张船票。而这张船票,不需要我出卖灵魂给巨头,只需要我相信数学,相信代码。 这种感觉,真好。 (后记/思考总结) 写完这些,我重新审视了一下 Walrus 的核心价值主张。它之所以吸引我,是因为它不像那些试图通过庞氏模型来吸引流动性的项目。它在解决一个硬核的工程问题。 高效: 纠删码带来的低冗余需求,直接降低了硬件门槛。 鲁棒性: 即使在网络动荡时也能恢复数据。 可编程性: 与 Sui 和 Move 的结合,让存储不仅仅是静态的,而是可以与智能合约互动的。 我记得 Walrus 的团队说过,他们的目标是让去中心化存储变得“无聊”。意思是,它应该像水和电一样,稳定、便宜、存在感低,但不可或缺。当有一天我们不再讨论“去中心化存储能不能用”,而是默认都在用它的时候,那就是成功了。 现在,是时候关掉文档,去冲一杯咖啡了。但在这之前,我要先把这篇文章发出去。不是为了那个活动,或者说不完全是为了那个活动。更是为了标记这一刻的认知。 未来的路还很长,但这只海象,似乎已经准备好潜入深海了。 @WalrusProtocol ,很高兴认识你。#walrus $WAL
在数据洪流中寻找诺亚方舟:关于去中心化存储、遗忘与 Walrus 的深夜随想
凌晨三点。我又在盯着屏幕上的那个 loading 图标发呆。
有时候我在想,我们这一代人是不是患上了某种“数字松鼠症”。我看着硬盘里那些堆积如山的照片、几年前写了一半的代码、存下来却再也没看过的 PDF 文档,还有那些为了防止“404”而疯狂截图的网页快照。我们囤积数据,就像以前的人囤积过冬的粮食一样。但是,粮食会烂在仓里,而数据呢?数据会烂在中心化服务器的某个角落里,或者更糟糕——因为某家公司改变了服务条款,或者仅仅是因为我的信用卡过期了一天,它们就凭空消失了。
前几天看到一个新闻,某个曾经红极一时的云盘服务宣布停止运营。那一刻我心里咯噔一下。不是因为我用那个网盘,而是那种令人窒息的不安全感又来了。我们把记忆、资产、甚至灵魂的一部分托付给了云端,但那个“云”,本质上只是别人的电脑。
这就让我想到了 Web3。我们整天喊着“Not your keys, not your coins”(没有私钥就没有资产),但在存储这事儿上,我们好像还在妥协。我们把 NFT 的元数据存在中心化服务器上,我们把 dApp 的前端部署在 AWS 上。这算什么去中心化?这就像是把金库的门换成了最先进的生物识别锁,但金库的墙壁却是纸糊的。
直到最近,我在研究 Sui 生态的时候,顺藤摸瓜摸到了 @walrusprotocol。
说实话,第一次看到这个名字的时候,我脑子里浮现的是那只长着长牙、笨重的海象。我当时就在想:为什么叫 Walrus?海象皮厚、耐寒、体积大?或者是披头士的那首歌?但随着我读完白皮书,啃完技术文档,我现在坐在这里,盯着天花板,脑子里的那个“海象”形象变了。它不再笨重,它变成了一种令人惊叹的、精密的数学美感。
我在想,Walrus 解决的不仅仅是“存东西”这个问题,它在试图解决“如何以人类能够承受的成本,永久地保存巨量信息”这个终极难题。
让我捋一捋这几天的思考路径。
以前我对去中心化存储(DSN)是有偏见的。我的刻板印象是:贵、慢、难用。就像 Arweave,那是永久存储的圣杯,但如果你让我把几个 T 的视频素材存上去,那成本估计能让我破产。IPFS 呢?它更像是一个寻址协议,如果我不自己跑节点或者花钱请 Pinning Service,我的数据还是会像风中的尘埃一样散去。
这里有个一直困扰我的“不可能三角”:我们要去中心化(安全/抗审查),我们要便宜(可扩展性),我们还要快(检索速度)。
大多数区块链在处理存储时,采用的是全节点复制。这就像是,我要存一张照片,全世界所有的节点都要在自己的硬盘里存一份这张照片的副本。这太疯狂了。这就像是为了不弄丢一本书,要求全世界每个图书馆都必须进货这本书。这种冗余度简直是对资源的犯罪。所以现在的 Layer 1 区块链才会因为状态膨胀(State Bloat)而变得越来越臃肿,Gas 费越来越高。
然后 Walrus 出现了,带着它的“纠删码”(Erasure Coding)。
我现在满脑子都是那个“把花瓶打碎”的比喻。
想象一下,我有一个珍贵的花瓶(我的数据文件)。传统的区块链存储是买了100个同样的花瓶,分给100个人保管。只要有一个人活着,花瓶就在。但这太贵了。
Walrus 的做法是:把这个花瓶打碎成100个碎片(Shards),然后通过某种极其高深的数学魔法(这就是他们引以为傲的 "Red Stuff" 编码算法),把这100个碎片再进行编码处理,分发给网络中的节点。最神奇的地方在于,我不需要召回这100个碎片来复原花瓶。我可能只需要其中的任意30个、或者40个碎片,就能完美地、一模一样地还原出那个花瓶。
坐在电脑前,我试图在脑海里模拟这个过程。这种机制带来的震撼感在于“效率”。这意味着,为了保证数据的安全性,网络不需要存储 100 倍的数据量,可能只需要存储 4 倍、5 倍甚至更少的冗余量,就能达到同样的、甚至更高的可靠性。
这就直接击穿了那个“贵”的痛点。
我看着 Walrus 的文档,心里在盘算:如果存储成本能降低到和 AWS S3 这种中心化巨头差不多的水平,甚至更低,那将会发生什么?
那意味着“全链上应用”不再是个伪命题。
我现在正在脑补一个场景:一个完全去中心化的 YouTube。现在的视频平台,最大的成本就是带宽和存储。创作者被平台算法绑架,因为平台付了存储费,平台就是老板。但如果通过 Walrus,视频以 blob(二进制大对象)的形式碎片化存储在去中心化网络中,极其廉价,且归属权完全由链上的 NFT 或智能合约控制。那我就真的拥有了我的视频。没人能删我的号,没人能屏蔽我的创作。前端界面可以有无数个,但数据源只有一个,且永远在那里。
这不仅仅是技术升级,这是权力结构的转移。
而且,为什么是 Sui?
这几天我一直在思考 @walrusprotocol 和 Sui 的关系。这不仅仅是因为它们出自同一个团队背景(Mysten Labs),更像是一种战略上的互补。Sui 像是一辆在那疯狂飙车的法拉利,专注于高并发、低延迟的交易执行;而 Walrus 就像是紧跟其后的重型运输机,负责承载那些法拉利装不下的重物——图片、视频、音频、复杂的 AI 模型权重。
说到 AI,这又触动了我的另一个兴奋点。
现在的 AI 模型,尤其是大语言模型,它们的权重文件大得吓人。而且这些模型正在变得越来越不透明。OpenAI 不 Open,我们不知道他们用了什么数据训练,也不知道模型被篡改过没有。
如果把 AI 模型的训练数据和权重文件存在 Walrus 上呢?
我在想象一个未来:AI 代理(Agent)在 Sui 网络上高速交易,而它们的“大脑”(模型权重)和“记忆”(历史数据)则安全地存储在 Walrus 上。这才是真正的去中心化 AI。我们可以验证这个模型是不是原版,我们可以追溯它的训练数据来源。这种透明度,在 AI 统治未来的时代,可能比黄金还珍贵。
昨天在社区里潜水,看到有人在讨论 Walrus 的代币经济学和节点激励。虽然细节还在打磨,但我感觉到一种久违的兴奋。那种感觉就像是 2017 年第一次读以太坊白皮书,或者是 2020 年第一次玩 DeFi 挖矿。这是一种“我在见证地基被浇筑”的感觉。
当然,我也在提醒自己不要盲目乐观。技术落地的过程总是充满了 bug 和妥协。
我在想,作为早期参与者,我现在能做什么?仅仅是发个推特吗?不,我得去试用。我得去跑一下他们的 Devnet。我想看看那个所谓的“快速检索”到底有多快。如果我在 Walrus 上存一部 4K 电影,它能像流媒体一样流畅播放吗?还是说需要等待漫长的重组过程?
官方说 Walrus 的设计即使在大量节点掉线(拜占庭故障)的情况下也能从剩余的碎片中恢复数据。我想象着那个场景:一场数字世界的灾难降临,大部分服务器宕机,但只要还有一小部分节点在运行,人类的数字遗产——那些代码、艺术品、历史记录——就能像凤凰一样从碎片中重生。这听起来是不是有点浪漫主义?但在代码的世界里,数学就是这种浪漫的保障。
还有一个点让我觉得很有意思:Walrus 并没有试图去建立一个新的 Layer 1 链来专门做存储,而是作为一个独立的存储层,可以服务于任何生态。这让我想到了“积木”。Web3 的美妙之处就在于可组合性。Walrus 不想做全能的神,它只想做一个最稳固的仓库。这种专注让我对它更有信心。
看着窗外,天快亮了。街道上的路灯开始熄灭,但互联网上的数据流永远不会停止。
我们正处在一个转折点上。过去,我们为了便利出卖了所有权;现在,技术终于发展到了可以兼得的程度。我们既可以拥有云存储的便利(速度、成本),又能拥有区块链的特性(所有权、抗审查)。
我翻看着 @walrusprotocol 的推特,看着那些关于“blob”的技术讨论,我突然意识到,这可能就是 Web3 大规模采用(Mass Adoption)所缺失的那块拼图。我们一直在做金融(DeFi),一直在做图片(NFT),但我们一直没能把真正的“内容”和“应用”搬上来,因为太贵了,太重了。
Walrus 可能会打破这个瓶颈。
当存储变得极其廉价且去中心化时,很多现在看起来荒谬的想法就会变得合理。比如,把整个人类的维基百科、所有的开源代码库、所有的公共领域电影,都做成一个巨大的、不可篡改的 NFT 集合,存储在 Walrus 上。这不是为了炒作,而是为了文明的备份。
或许几年后,当我再回头看这篇凌晨写下的胡思乱想时,我会嘲笑自己当时的肤浅,或者,我会庆幸自己在这个早期阶段就关注到了这只“海象”。
不管怎样,我决定不再做那个焦虑的数字囤积者了。我要开始尝试把我的数据,真正地掌握在自己手里。这不仅仅是换个硬盘,这是换一种活法。
如果 Web3 是一场革命,那么存储就是它的后勤补给线。没有稳固的后勤,前线跑得再快也是送死。Walrus 正在铺设这条补给线,而且是用一种极其聪明、高效的方式。
我想,我也许该去学习一下 Rust 语言了,或者深入研究一下 Move。因为如果 Walrus 真的做成了,那么在它之上构建应用将会是下一个周期的 alpha。
天亮了。看着屏幕上写下的这些文字,我觉得这种思考是有价值的。这不是写给谁看的教程,这是我自己理清思路的过程。在这个充满噪音的市场里,能够静下心来理解一个协议的底层逻辑,本身就是一种奢侈。
#Walrus,这不仅仅是一个标签,这可能是通往真正去中心化互联网的一张船票。而这张船票,不需要我出卖灵魂给巨头,只需要我相信数学,相信代码。
这种感觉,真好。
(后记/思考总结)
写完这些,我重新审视了一下 Walrus 的核心价值主张。它之所以吸引我,是因为它不像那些试图通过庞氏模型来吸引流动性的项目。它在解决一个硬核的工程问题。
高效: 纠删码带来的低冗余需求,直接降低了硬件门槛。
鲁棒性: 即使在网络动荡时也能恢复数据。
可编程性: 与 Sui 和 Move 的结合,让存储不仅仅是静态的,而是可以与智能合约互动的。
我记得 Walrus 的团队说过,他们的目标是让去中心化存储变得“无聊”。意思是,它应该像水和电一样,稳定、便宜、存在感低,但不可或缺。当有一天我们不再讨论“去中心化存储能不能用”,而是默认都在用它的时候,那就是成功了。
现在,是时候关掉文档,去冲一杯咖啡了。但在这之前,我要先把这篇文章发出去。不是为了那个活动,或者说不完全是为了那个活动。更是为了标记这一刻的认知。
未来的路还很长,但这只海象,似乎已经准备好潜入深海了。
@Walrus 🦭/acc
,很高兴认识你。
#walrus
$WAL
SUI
WAL
Luna月芽
·
--
Dusk:除了“机构入场”的陈词滥调,合规隐私才是RWA的唯一解药 最近盯着RWA赛道复盘了几晚,越看越觉得市面上大部分项目都在自欺欺人。大家都在喊机构入场,可现实是机构根本不敢在以太坊这种完全透明的账本上跑大资金,谁愿意自己的交易策略和底牌被全世界盯着看?转头去看那些主打隐私的公链,像Monero这种纯匿名的路子又直接被监管判了死刑。在这两个极端之间找平衡点,我发现@Dusk_Foundation 的切入角度确实刁钻。它不像Aztec那样只做L2的隐私补丁,试图在应用层修修补补,而是直接在L1层把合规逻辑写进了底层协议,这种原生级别的整合在技术难度上完全不是一个量级。 昨晚又去啃了遍Dusk的技术文档,那个Piecrust虚拟机的设计思路挺有意思。相比于Mina那种追求极致轻量化的叙事,Dusk显然更在意金融结算的最终确定性。最让我觉得击中痛点的是Citadel协议,这东西彻底解决了反洗钱和隐私的互斥悖论。以前我们做KYC是把护照信息交给中心化机构,然后祈祷他们的数据库别被黑,Dusk的逻辑是在链下生成零知识证明,链上只验证“你符合资格”这个结果。这意味着我可以证明自己是合格投资者,却不需要向全网广播我是谁。这种“最小化披露”才是传统金融巨头愿意进场的关键,毕竟谁也不想裸奔。 不过说实话,技术愿景再性感,落地体验才是照妖镜。我在测试网交互了几次,体验上跟Solana那种丝滑感还是有差距,偶尔交互时间偏长,毕竟做ZKP计算本身就挺废资源的,这对用户耐心是个考验。而且现在的生态应用确实还太单薄,跟以太坊那种乐高积木般的DeFi生态没法比,流动性也是个硬伤。但转念一想,基础设施的搭建本来就不是搭积木那么快。现在的公链市场满大街都是在那吹TPS的,缺的真不是速度,而是能让大资金安心睡觉的合规底座。#dusk $DUSK
Dusk:除了“机构入场”的陈词滥调,合规隐私才是RWA的唯一解药
最近盯着RWA赛道复盘了几晚,越看越觉得市面上大部分项目都在自欺欺人。大家都在喊机构入场,可现实是机构根本不敢在以太坊这种完全透明的账本上跑大资金,谁愿意自己的交易策略和底牌被全世界盯着看?转头去看那些主打隐私的公链,像Monero这种纯匿名的路子又直接被监管判了死刑。在这两个极端之间找平衡点,我发现
@Dusk
的切入角度确实刁钻。它不像Aztec那样只做L2的隐私补丁,试图在应用层修修补补,而是直接在L1层把合规逻辑写进了底层协议,这种原生级别的整合在技术难度上完全不是一个量级。
昨晚又去啃了遍Dusk的技术文档,那个Piecrust虚拟机的设计思路挺有意思。相比于Mina那种追求极致轻量化的叙事,Dusk显然更在意金融结算的最终确定性。最让我觉得击中痛点的是Citadel协议,这东西彻底解决了反洗钱和隐私的互斥悖论。以前我们做KYC是把护照信息交给中心化机构,然后祈祷他们的数据库别被黑,Dusk的逻辑是在链下生成零知识证明,链上只验证“你符合资格”这个结果。这意味着我可以证明自己是合格投资者,却不需要向全网广播我是谁。这种“最小化披露”才是传统金融巨头愿意进场的关键,毕竟谁也不想裸奔。
不过说实话,技术愿景再性感,落地体验才是照妖镜。我在测试网交互了几次,体验上跟Solana那种丝滑感还是有差距,偶尔交互时间偏长,毕竟做ZKP计算本身就挺废资源的,这对用户耐心是个考验。而且现在的生态应用确实还太单薄,跟以太坊那种乐高积木般的DeFi生态没法比,流动性也是个硬伤。但转念一想,基础设施的搭建本来就不是搭积木那么快。现在的公链市场满大街都是在那吹TPS的,缺的真不是速度,而是能让大资金安心睡觉的合规底座。
#dusk
$DUSK
ETH
XMR
DUSK
Luna月芽
·
--
告别裸奔与黑箱:深度复盘为何机构资金唯一的归宿只能是Dusk这条“灰度”链深夜盯着屏幕上不断跳动的K线和Etherscan上那赤裸裸的转账记录,我常常陷入一种莫名的恐慌,这种恐慌并非来自资产价格的涨跌,而是源于一种深层的暴露感,在以太坊这个黑暗森林里,我们就好像举着火把在夜行,每一次交互、每一笔转账、甚至每一次授权,都在链上留下了不可磨灭的指纹,任何人只要愿意挖掘,都能把你的底裤扒得一干二净。这就是所谓Web3的透明性悖论,我们追求去中心化的同时,却不得不牺牲掉最基本的隐私权,这在散户看来或许只是个无伤大雅的麻烦,但对于真正想要进场的传统金融机构和巨鲸来说,这种透明简直就是致命的毒药,试想一下如果贝莱德或者富达的持仓变动、建仓成本被全网实时监控,他们的对手盘会怎么做,这就是为什么我看了一圈所谓的隐私赛道,最终还是把目光死死锁定在@Dusk_Foundation 身上的原因,它不是Monero那种彻底的黑箱,也不是以太坊这种完全的玻璃房,它走出了一条让我这种技术原教旨主义者都感到惊艳的中间路线,一种可审计的隐私,一种真正为合规金融铺路的底层架构。 这几天我高强度使用了Dusk的主网,甚至把自己的一点老本都跨进去做了几轮压力测试,说实话体验感跟我预期的完全不同,以前玩隐私币,比如Monero或者Zcash,那种感觉是极客的、边缘的甚至带着一点灰色的兴奋感,你转了一笔钱就像是把石头扔进了深渊,没人知道去了哪里,但问题也随之而来,你没法在DeFi里用它,你没法证明这笔钱的合法性,你就是个链上的幽灵。但Dusk给我的感觉完全是另一种维度的冲击,它在底层就植入了一种名为Piecrust的虚拟机,这种基于零知识证明的执行环境让我在操作时有一种奇异的错觉,我明明是在一条公开的公链上交互,但我的交易金额、我的持仓数量对于外界却是完全不可见的,这就好比我在大街上通过一个透明的信封递交文件,别人看得到信封在移动,却死活看不透里面的内容。这种体验在做RWA资产交互时尤为明显,我尝试了链上的几个债券代币化项目,整个流程丝滑得不像是在用隐私链,传统的隐私方案往往需要在客户端进行极重的ZK证明计算,导致网页卡顿甚至浏览器崩溃,但Dusk明显在电路优化上下了死功夫,证明生成的速度极快,基本都在几秒内完成,这种性能上的压迫感让我意识到,他们吹的Piecrust VM不仅仅是营销术语,而是真的在内存映射和零拷贝技术上搞出了点东西,它解决了一个一直困扰隐私赛道的不可能三角,即隐私、合规与性能的共存。 说到竞品,我就不得不拉踩一下现在的Layer 2隐私方案,很多人说以太坊上的L2比如Aztec或者基于OP stack的隐私插件也能做同样的事,为什么要单独搞一条L1,这种观点其实非常肤浅,且不说L2的流动性割裂问题,光是全局状态的隐私性就是L2很难解决的硬伤。在以太坊L2上,你依然受制于L1的数据可用性限制,你的隐私往往是局部的、打补丁式的,而Dusk作为一条独立的L1,它的隐私是原生级别的,是刻在共识层的,这就意味着所有的DApp不仅能共享隐私状态,还能在互操作时保持这种隐私性,这一点在金融衍生品交易中简直是降维打击。再看看Secret Network或者Oasis这类基于TEE可信硬件环境的项目,说实话我一直对硬件隐私持保留态度,Intel SGX漏洞也不是一次两次了,把身家性命寄托在硬件厂商的良心上,对于信奉代码即法律的我们来说,始终觉得心里不踏实。Dusk走的是纯数学路线,用密码学来保证隐私,这种基于Plonk算法的硬核逻辑虽然开发难度大,周期长,但它带来的安全性是数学级别的,是那种哪怕天塌下来,只要数学公式没错,我的资产隐私就是安全的踏实感。 在深度体验的过程中,我也发现了一些很有意思的细节,或者说是产品打磨上的“小心机”。Dusk的Gas费机制设计得非常巧妙,它没有因为隐私计算的复杂性而让用户承担高昂的成本,这一点对于高频交易者来说极其友好。回想当年在Tornado Cash上混币,那手续费高得让人肉疼,而Dusk显然是奔着大规模商业应用去的,它把很多计算负载通过经济模型转嫁给了节点验证者,而不是让用户买单。不过有一说一,目前Dusk的生态还处于早期阶段,跨链桥的体验偶尔还是会有延迟,我有一次从币安提币到Dusk钱包,虽然链上确认很快,但等待ZK证明最终上链的那几十秒里,心里还是会咯噔一下,这可能是所有隐私链都无法避免的心理门槛,毕竟你看不到那笔钱在明文账本上流动,你只能相信那个绿色的勾号。而且目前的流动性相比于Solana或者以太坊确实还有差距,大额兑换时的滑点偶尔会跳一下,这对于习惯了深海流动性的老DeFi玩家来说,可能需要一点时间去适应,但反过来看,这恰恰是早期参与者的红利期,如果流动性已经溢出,那估值早就不是现在这个样子了。 这就引出了一个更深层的话题,为什么我认为机构资金一定会流向Dusk。现在的RWA叙事虽然火,但大部分都在以太坊上裸奔,这是不可持续的。高盛、摩根大通这些巨鳄,他们不仅要在链上发债,还要在链上交易,他们绝对无法容忍自己的交易策略被链上机器人抢跑,更无法容忍自己的客户名单通过链上地址分析被竞争对手扒出来。Dusk提出的“选择性披露”简直就是为这帮华尔街精英量身定做的,它允许你在需要向监管机构证明合规时,生成一个零知识证明,证明你的资金来源干净,证明你没有触犯制裁名单,但除此之外,你的所有商业机密都是黑箱。这种“可编程的合规性”才是RWA大规模爆发的前提,没有隐私的RWA就是个伪命题,是只能在沙盒里玩的玩具。我看代码的时候发现Dusk在这个模块上留了很多接口,明显是在为后续对接某种统一的数字身份标准做准备,这盘棋下得很大,大到想要重塑整个金融市场的清结算底层。 再聊聊技术上的一个痛点,也是Dusk解决得让我拍大腿的地方,那就是智能合约的隐私性。以前的隐私币只能保密交易金额,不能保密智能合约的逻辑和状态,这导致很多复杂的DeFi玩法根本跑不通。但Dusk的虚拟机允许开发者编写私密的智能合约,这意味着我们可以构建真正的暗池Dark Pool。在传统金融里,暗池是机构交易的大头,因为那里没有滑点影响,没有信息泄露,如果Dusk能把暗池搬到链上,并且做到去信任化,那将会吸干中心化交易所的一大半流动性。我在测试网上试玩了一个简单的匿名投票合约,那种既能验证我的投票权重,又完全不暴露我投了谁的感觉,真的太美妙了,这种技术如果应用在DAO治理或者企业董事会投票上,绝对是革命性的。 当然,作为一条新公链,Dusk也不是没有槽点。它的开发者文档虽然详尽,但门槛极高,对于习惯了Copy Paste Solidity代码的开发者来说,上手Rust和ZK电路简直是噩梦。这意味着生态爆发的速度不会像EVM兼容链那么快,它需要一帮真正懂密码学、懂系统工程的硬核开发者来建设,这既是护城河,也是双刃剑。而且目前的钱包插件UI设计虽然简洁,但对于小白用户来说,那些关于证明生成的术语提示还是显得有点硬核,缺乏一点Web2应用的亲和力。但我反而觉得这是一种筛选,它筛选掉了那些只想冲土狗的投机分子,留下了真正看懂技术价值的Builder和长期持有者。我在社区里混迹了很久,发现大家的讨论很少涉及价格预测,更多是在探讨零知识证明的优化路径、节点去中心化的程度,这种技术氛围让我想起了早期的以太坊社区,那种纯粹的、为了改变点什么而Coding的热情。 还有一个容易被忽视的点是Dusk的共识机制,SBA(隔离拜占庭协议)。这个机制在保证去中心化的同时,竟然还能做到即时确定性,这在PoS链里是非常罕见的。大部分公链为了追求速度,往往会牺牲一部分去中心化程度,搞几个超级节点了事,但Dusk的验证节点门槛并不高,这就保证了网络的鲁棒性。我在同步节点数据的时候,看着那一行行日志飞速滚过,心里竟然涌起一种莫名的感动,这是数学在对抗熵增,是代码在构建秩序。在这个充满欺诈、rug pull和黑客攻击的行业里,Dusk像是一个严谨的数学家,不修边幅,不善言辞,但每一步都走得无比扎实。 我也对比过同赛道的Aleo,虽然也是主打隐私和ZK,但Aleo的融资规模和资本推手让它显得有点过于笨重,且其编程语言Leo的学习曲线同样陡峭,相比之下Dusk在金融垂直领域的专注度更高。Aleo更像是一个通用的隐私计算平台,什么都想做,而Dusk很清楚自己的定位——就是做金融,做RWA,做合规隐私。这种专注度在牛市里可能看不出优势,但一旦进入存量博弈,只有真正解决行业痛点的项目才能活下来。我觉得Dusk就像是当年的Chainlink,在预言机这个细分领域做到了极致,最终成为了行业标准。现在的隐私赛道也到了这样一个临界点,谁能率先打通合规与隐私的任督二脉,谁就能承接即将到来的万亿级机构资金。 写到这里,我不禁想起了中本聪在白皮书里写下的愿景,点对点的电子现金系统。但现实是,如果这个系统是完全透明的,它永远无法成为主流商业社会的现金。商业的本质包含了秘密,包含了博弈,包含了不对称性。Dusk正在做的,其实是补全区块链拼图上缺失的那一角,让区块链从一个激进的社会实验,变成一个真正可用的金融基础设施。我不知道Dusk最终能跑多远,也许它会因为技术太超前而死在沙滩上,也许它会被后来者模仿超越,但至少在这一刻,当我把资产存入Dusk的隐私合约时,我找回了久违的安全感,那种在这个裸奔的数字世界里,终于穿上了一件防弹衣的安全感。这不仅是技术的胜利,更是对个人主权的一次捍卫。对于我们这些在链上摸爬滚打多年的老韭菜来说,这种安全感比十倍百倍的涨幅更让人上瘾。所以,别再问我为什么满仓Dusk,因为在下一个周期,隐私将不再是可选项,而是必选项,而Dusk,目前看来是那个最接近标准答案的考生。#dusk $DUSK
告别裸奔与黑箱:深度复盘为何机构资金唯一的归宿只能是Dusk这条“灰度”链
深夜盯着屏幕上不断跳动的K线和Etherscan上那赤裸裸的转账记录,我常常陷入一种莫名的恐慌,这种恐慌并非来自资产价格的涨跌,而是源于一种深层的暴露感,在以太坊这个黑暗森林里,我们就好像举着火把在夜行,每一次交互、每一笔转账、甚至每一次授权,都在链上留下了不可磨灭的指纹,任何人只要愿意挖掘,都能把你的底裤扒得一干二净。这就是所谓Web3的透明性悖论,我们追求去中心化的同时,却不得不牺牲掉最基本的隐私权,这在散户看来或许只是个无伤大雅的麻烦,但对于真正想要进场的传统金融机构和巨鲸来说,这种透明简直就是致命的毒药,试想一下如果贝莱德或者富达的持仓变动、建仓成本被全网实时监控,他们的对手盘会怎么做,这就是为什么我看了一圈所谓的隐私赛道,最终还是把目光死死锁定在
@Dusk
身上的原因,它不是Monero那种彻底的黑箱,也不是以太坊这种完全的玻璃房,它走出了一条让我这种技术原教旨主义者都感到惊艳的中间路线,一种可审计的隐私,一种真正为合规金融铺路的底层架构。
这几天我高强度使用了Dusk的主网,甚至把自己的一点老本都跨进去做了几轮压力测试,说实话体验感跟我预期的完全不同,以前玩隐私币,比如Monero或者Zcash,那种感觉是极客的、边缘的甚至带着一点灰色的兴奋感,你转了一笔钱就像是把石头扔进了深渊,没人知道去了哪里,但问题也随之而来,你没法在DeFi里用它,你没法证明这笔钱的合法性,你就是个链上的幽灵。但Dusk给我的感觉完全是另一种维度的冲击,它在底层就植入了一种名为Piecrust的虚拟机,这种基于零知识证明的执行环境让我在操作时有一种奇异的错觉,我明明是在一条公开的公链上交互,但我的交易金额、我的持仓数量对于外界却是完全不可见的,这就好比我在大街上通过一个透明的信封递交文件,别人看得到信封在移动,却死活看不透里面的内容。这种体验在做RWA资产交互时尤为明显,我尝试了链上的几个债券代币化项目,整个流程丝滑得不像是在用隐私链,传统的隐私方案往往需要在客户端进行极重的ZK证明计算,导致网页卡顿甚至浏览器崩溃,但Dusk明显在电路优化上下了死功夫,证明生成的速度极快,基本都在几秒内完成,这种性能上的压迫感让我意识到,他们吹的Piecrust VM不仅仅是营销术语,而是真的在内存映射和零拷贝技术上搞出了点东西,它解决了一个一直困扰隐私赛道的不可能三角,即隐私、合规与性能的共存。
说到竞品,我就不得不拉踩一下现在的Layer 2隐私方案,很多人说以太坊上的L2比如Aztec或者基于OP stack的隐私插件也能做同样的事,为什么要单独搞一条L1,这种观点其实非常肤浅,且不说L2的流动性割裂问题,光是全局状态的隐私性就是L2很难解决的硬伤。在以太坊L2上,你依然受制于L1的数据可用性限制,你的隐私往往是局部的、打补丁式的,而Dusk作为一条独立的L1,它的隐私是原生级别的,是刻在共识层的,这就意味着所有的DApp不仅能共享隐私状态,还能在互操作时保持这种隐私性,这一点在金融衍生品交易中简直是降维打击。再看看Secret Network或者Oasis这类基于TEE可信硬件环境的项目,说实话我一直对硬件隐私持保留态度,Intel SGX漏洞也不是一次两次了,把身家性命寄托在硬件厂商的良心上,对于信奉代码即法律的我们来说,始终觉得心里不踏实。Dusk走的是纯数学路线,用密码学来保证隐私,这种基于Plonk算法的硬核逻辑虽然开发难度大,周期长,但它带来的安全性是数学级别的,是那种哪怕天塌下来,只要数学公式没错,我的资产隐私就是安全的踏实感。
在深度体验的过程中,我也发现了一些很有意思的细节,或者说是产品打磨上的“小心机”。Dusk的Gas费机制设计得非常巧妙,它没有因为隐私计算的复杂性而让用户承担高昂的成本,这一点对于高频交易者来说极其友好。回想当年在Tornado Cash上混币,那手续费高得让人肉疼,而Dusk显然是奔着大规模商业应用去的,它把很多计算负载通过经济模型转嫁给了节点验证者,而不是让用户买单。不过有一说一,目前Dusk的生态还处于早期阶段,跨链桥的体验偶尔还是会有延迟,我有一次从币安提币到Dusk钱包,虽然链上确认很快,但等待ZK证明最终上链的那几十秒里,心里还是会咯噔一下,这可能是所有隐私链都无法避免的心理门槛,毕竟你看不到那笔钱在明文账本上流动,你只能相信那个绿色的勾号。而且目前的流动性相比于Solana或者以太坊确实还有差距,大额兑换时的滑点偶尔会跳一下,这对于习惯了深海流动性的老DeFi玩家来说,可能需要一点时间去适应,但反过来看,这恰恰是早期参与者的红利期,如果流动性已经溢出,那估值早就不是现在这个样子了。
这就引出了一个更深层的话题,为什么我认为机构资金一定会流向Dusk。现在的RWA叙事虽然火,但大部分都在以太坊上裸奔,这是不可持续的。高盛、摩根大通这些巨鳄,他们不仅要在链上发债,还要在链上交易,他们绝对无法容忍自己的交易策略被链上机器人抢跑,更无法容忍自己的客户名单通过链上地址分析被竞争对手扒出来。Dusk提出的“选择性披露”简直就是为这帮华尔街精英量身定做的,它允许你在需要向监管机构证明合规时,生成一个零知识证明,证明你的资金来源干净,证明你没有触犯制裁名单,但除此之外,你的所有商业机密都是黑箱。这种“可编程的合规性”才是RWA大规模爆发的前提,没有隐私的RWA就是个伪命题,是只能在沙盒里玩的玩具。我看代码的时候发现Dusk在这个模块上留了很多接口,明显是在为后续对接某种统一的数字身份标准做准备,这盘棋下得很大,大到想要重塑整个金融市场的清结算底层。
再聊聊技术上的一个痛点,也是Dusk解决得让我拍大腿的地方,那就是智能合约的隐私性。以前的隐私币只能保密交易金额,不能保密智能合约的逻辑和状态,这导致很多复杂的DeFi玩法根本跑不通。但Dusk的虚拟机允许开发者编写私密的智能合约,这意味着我们可以构建真正的暗池Dark Pool。在传统金融里,暗池是机构交易的大头,因为那里没有滑点影响,没有信息泄露,如果Dusk能把暗池搬到链上,并且做到去信任化,那将会吸干中心化交易所的一大半流动性。我在测试网上试玩了一个简单的匿名投票合约,那种既能验证我的投票权重,又完全不暴露我投了谁的感觉,真的太美妙了,这种技术如果应用在DAO治理或者企业董事会投票上,绝对是革命性的。
当然,作为一条新公链,Dusk也不是没有槽点。它的开发者文档虽然详尽,但门槛极高,对于习惯了Copy Paste Solidity代码的开发者来说,上手Rust和ZK电路简直是噩梦。这意味着生态爆发的速度不会像EVM兼容链那么快,它需要一帮真正懂密码学、懂系统工程的硬核开发者来建设,这既是护城河,也是双刃剑。而且目前的钱包插件UI设计虽然简洁,但对于小白用户来说,那些关于证明生成的术语提示还是显得有点硬核,缺乏一点Web2应用的亲和力。但我反而觉得这是一种筛选,它筛选掉了那些只想冲土狗的投机分子,留下了真正看懂技术价值的Builder和长期持有者。我在社区里混迹了很久,发现大家的讨论很少涉及价格预测,更多是在探讨零知识证明的优化路径、节点去中心化的程度,这种技术氛围让我想起了早期的以太坊社区,那种纯粹的、为了改变点什么而Coding的热情。
还有一个容易被忽视的点是Dusk的共识机制,SBA(隔离拜占庭协议)。这个机制在保证去中心化的同时,竟然还能做到即时确定性,这在PoS链里是非常罕见的。大部分公链为了追求速度,往往会牺牲一部分去中心化程度,搞几个超级节点了事,但Dusk的验证节点门槛并不高,这就保证了网络的鲁棒性。我在同步节点数据的时候,看着那一行行日志飞速滚过,心里竟然涌起一种莫名的感动,这是数学在对抗熵增,是代码在构建秩序。在这个充满欺诈、rug pull和黑客攻击的行业里,Dusk像是一个严谨的数学家,不修边幅,不善言辞,但每一步都走得无比扎实。
我也对比过同赛道的Aleo,虽然也是主打隐私和ZK,但Aleo的融资规模和资本推手让它显得有点过于笨重,且其编程语言Leo的学习曲线同样陡峭,相比之下Dusk在金融垂直领域的专注度更高。Aleo更像是一个通用的隐私计算平台,什么都想做,而Dusk很清楚自己的定位——就是做金融,做RWA,做合规隐私。这种专注度在牛市里可能看不出优势,但一旦进入存量博弈,只有真正解决行业痛点的项目才能活下来。我觉得Dusk就像是当年的Chainlink,在预言机这个细分领域做到了极致,最终成为了行业标准。现在的隐私赛道也到了这样一个临界点,谁能率先打通合规与隐私的任督二脉,谁就能承接即将到来的万亿级机构资金。
写到这里,我不禁想起了中本聪在白皮书里写下的愿景,点对点的电子现金系统。但现实是,如果这个系统是完全透明的,它永远无法成为主流商业社会的现金。商业的本质包含了秘密,包含了博弈,包含了不对称性。Dusk正在做的,其实是补全区块链拼图上缺失的那一角,让区块链从一个激进的社会实验,变成一个真正可用的金融基础设施。我不知道Dusk最终能跑多远,也许它会因为技术太超前而死在沙滩上,也许它会被后来者模仿超越,但至少在这一刻,当我把资产存入Dusk的隐私合约时,我找回了久违的安全感,那种在这个裸奔的数字世界里,终于穿上了一件防弹衣的安全感。这不仅是技术的胜利,更是对个人主权的一次捍卫。对于我们这些在链上摸爬滚打多年的老韭菜来说,这种安全感比十倍百倍的涨幅更让人上瘾。所以,别再问我为什么满仓Dusk,因为在下一个周期,隐私将不再是可选项,而是必选项,而Dusk,目前看来是那个最接近标准答案的考生。
#dusk
$DUSK
ETH
DUSK
Luna月芽
·
--
跌没了信仰才看清逻辑,XPL这波支付叙事到底是不是在裸泳 盯着XPL那根近乎归零的K线,账户缩水确实让人肉疼,但这种极端的清洗反而让我冷静下来重新审视这个标的。现在的公链赛道卷TPS卷得昏天黑地,却很少有人真正去解决用户体验的断层。我就纳闷了,Web3喊了这么多年的Mass Adoption,怎么转个帐还得先去交易所买ETH充当Gas?这种反直觉的门槛直接把圈外人挡死了。@Plasma 的Paymaster机制算是一记狠狠的耳光,直接实现了稳定币零Gas转账。我拿它跟现在的热门L2对比了一下,不用在那儿算计Gas费够不够的感觉,简直就像是从拨号上网切到了光纤。这种底层逻辑的重构,才是支付赛道该有的样子。 资金流向是不会骗人的。Maple上SyrupUSDT那个池子锁了11亿美金,这体量放在整个DeFi圈子里也是相当炸裂的。大资金愿意在熊市里把钱沉淀在再里,说明不仅认可流动性,更认可它把状态根锚定到比特币网络的安全策略。这种借用BTC算力做背书的思路,比那些自己搞一套共识机制的链要稳得多。而且看着Rain cards和Oobit接入Visa网络的覆盖面,还有那个符合MiCA监管的EUROP稳定币,你会发现这项目根本没在链上内卷,而是直接把触角伸进了现实世界的金融毛细血管里。 当然我也不是无脑吹,现阶段的问题也很刺眼。验证节点高度集中,说白了还是团队在控盘,这种中心化风险是必须要计入成本的。生态应用的贫瘠也是不争的事实,除了转账和理财,确实找不到什么爆款DApp。甚至有时候我会怀疑,这种极客范儿的坚持到底能不能跑赢市场的情绪。但转念一想,在现在这个满屏空气币的行情下,一个死磕支付痛点、有机构托底、技术基本面还在变硬的标的,现在的价格是不是有点太不合理了?我宁愿为这种看得见的技术买单,也不想再去那些几十亿市值的空气里做分母。#plasma $XPL
跌没了信仰才看清逻辑,XPL这波支付叙事到底是不是在裸泳
盯着XPL那根近乎归零的K线,账户缩水确实让人肉疼,但这种极端的清洗反而让我冷静下来重新审视这个标的。现在的公链赛道卷TPS卷得昏天黑地,却很少有人真正去解决用户体验的断层。我就纳闷了,Web3喊了这么多年的Mass Adoption,怎么转个帐还得先去交易所买ETH充当Gas?这种反直觉的门槛直接把圈外人挡死了。
@Plasma
的Paymaster机制算是一记狠狠的耳光,直接实现了稳定币零Gas转账。我拿它跟现在的热门L2对比了一下,不用在那儿算计Gas费够不够的感觉,简直就像是从拨号上网切到了光纤。这种底层逻辑的重构,才是支付赛道该有的样子。
资金流向是不会骗人的。Maple上SyrupUSDT那个池子锁了11亿美金,这体量放在整个DeFi圈子里也是相当炸裂的。大资金愿意在熊市里把钱沉淀在再里,说明不仅认可流动性,更认可它把状态根锚定到比特币网络的安全策略。这种借用BTC算力做背书的思路,比那些自己搞一套共识机制的链要稳得多。而且看着Rain cards和Oobit接入Visa网络的覆盖面,还有那个符合MiCA监管的EUROP稳定币,你会发现这项目根本没在链上内卷,而是直接把触角伸进了现实世界的金融毛细血管里。
当然我也不是无脑吹,现阶段的问题也很刺眼。验证节点高度集中,说白了还是团队在控盘,这种中心化风险是必须要计入成本的。生态应用的贫瘠也是不争的事实,除了转账和理财,确实找不到什么爆款DApp。甚至有时候我会怀疑,这种极客范儿的坚持到底能不能跑赢市场的情绪。但转念一想,在现在这个满屏空气币的行情下,一个死磕支付痛点、有机构托底、技术基本面还在变硬的标的,现在的价格是不是有点太不合理了?我宁愿为这种看得见的技术买单,也不想再去那些几十亿市值的空气里做分母。
#plasma
$XPL
BTC
ETH
XPL
Luna月芽
·
--
被高估的并行EVM与被低估的支付原语:我在Plasma测试网跑了三天后的真实崩溃与反思盯着屏幕上那笔在以太坊主网挂了半小时还没确认的交易,我手边的咖啡都凉透了,这种焦虑感在2026年的今天依然像个幽灵一样缠绕着每一个链上交互者,尽管我们已经被各种Layer 2和高性能公链的叙事轰炸了整整一轮牛熊,市面上到处都在吹嘘百万TPS和亚秒级最终性,但当我真正试图把这一笔为了冲某个土狗项目的USDT转出去时,缺少ETH作为Gas费的尴尬瞬间让我觉得自己像是拿着金条却买不到矿泉水的难民。这几天我强迫自己把注意力从那些喧嚣的AI代理和Meme币狂欢中抽离出来,像个苦行僧一样在@Plasma 的测试网和白皮书里泡了整整三天,说实话,最开始我是抱着找茬的心态去的,毕竟在Monad和Sei这种并行EVM把性能叙事卷到天花板的当下,再搞一条号称做“支付”的Layer 1听起来简直就是上个周期的陈词滥调,甚至有点像是在给投资人讲为了圈钱而编造的过时故事,但随着我深入体验了它的Gas抽象机制并对比了手头几个所谓的“杀手级”竞品后,某种认知上的错位感开始在我脑子里疯狂生长。 我们这个圈子太容易被“宏大叙事”绑架了,所有人都在谈论模块化、谈论链抽象、谈论如何把区块链改造成纳斯达克那样的超级计算机,却选择性地忽略了一个最朴素也是最致命的问题,那就是当我想给住在地球另一端的开发者转一笔咨询费时,我并不在乎你的链到底用了某种高大上的DAG结构还是零知识证明,我只在乎能不能直接把钱包里的USDT发过去,而不是先去中心化交易所买点原生代币充当路费,还得计算会不会留下一堆恶心的粉尘余额。Plasma让我感到意外的地方正是在于这种“反直觉”的做减法,它没有去卷那些看起来很性感的并行执行或者模块化堆栈,而是死磕了支付原语这个听起来土得掉渣的方向。我在测试网尝试用Paymaster功能直接用USDT支付Gas的那一刻,手指在键盘上停顿了几秒,这种流畅感竟然让我产生了一种“这不像是区块链”的错觉,这种体验上一次出现还是我在使用Web2的支付软件时,反观我前几天在高吞吐量的Solana上抢购Meme时,虽然速度快得惊人,但那种时刻担心交易失败、担心滑点、担心钱包被Drain的紧绷感从未消失,Solana确实快,但它更像是一辆没有安全气囊的F1赛车,而Plasma给我的感觉是一辆虽然极速只有200、但内饰极其舒适且永远不会熄火的家用轿车,对于大多数只想从A点到B点的用户来说,后者才是真正的刚需。 技术层面的选型往往暴露了团队的真正野心,Plasma选择了基于Reth构建而不是像大多数EVM兼容链那样直接Fork Geth完事,这本身就是一个极其冒险但又充满品味的决定。我对Reth的关注始于Paradigm刚把它开源的时候,Rust语言带来的内存安全性和执行效率确实是Go语言难以比拟的,但在当时看来这更多是极客的玩具,敢把身家性命压在这个架构上的L1屈指可数。我在翻阅Plasma的代码库时发现,他们并不只是简单地拿来主义,而是对Reth的状态读取机制做了非常深度的魔改,特别是为了适配高频稳定币交易而优化的状态树结构,这让我想起了早期的Polygon,也是在一片质疑声中把以太坊的侧链做得风生水起。相比之下,Monad虽然在并行执行上做得非常激进,试图通过榨干硬件性能来提升TPS,但我始终怀疑这种“暴力美学”在面对真实世界的复杂金融交互时是否真的鲁棒,当链上状态膨胀到几个TB甚至PB级别时,单纯的硬件加速还能不能掩盖架构上的臃肿?Plasma似乎走了另一条路,它承认区块链不可能无限扩展,所以它把核心资源全部倾斜给了“资产转移”这一类特定的操作,这种针对特定场景的垂直优化(Vertical Optimization)在数据库领域早就被证明是有效的,但在通用公链的叙事里却一直是个异类。 这几天的测试中我也遇到了一些令人抓狂的问题,为了测试它的极限,我写了个脚本模拟了几千个并发的微支付交易,结果发现节点同步偶尔会出现短暂的滞后,虽然不影响最终性,但那种“卡顿感”还是存在的,这说明即便是有Reth加持,在网络层面对海量小额交易的广播风暴依然是个巨大的挑战。而且我也注意到社区里有一些关于其代币经济模型的杂音,大家对于XPL作为Gas代币的价值捕获能力表示怀疑,既然用户可以直接用USDT付手续费,那XPL除了作为PoS的质押资产外,流速会不会太高从而导致价格螺旋下跌?这是一个非常尖锐且现实的问题,目前的公链模型大多依赖于“Gas费必须用原生代币”这个强权逻辑来维持币价,Plasma打破了这个铁律,就必须找到新的价值锚定点,否则就会像当年的EOS一样,技术再好也救不了币价的颓势。我不禁拿它和Celo做对比,Celo也是主打移动优先和稳定币支付,但最终还是不得不向以太坊生态投降转型做L2,Plasma现在的处境其实非常微妙,它既要证明自己作为独立L1的安全性,又要证明自己这种原生支持多币种支付的架构是Rollup们做不到或者不屑于做的。 这种对于“独立性”的坚持在现在的市场环境下显得格格不入。我们看到的趋势是大家都争先恐后地去当以太坊的二层,恨不得把数据可用性层(DA)都外包给Celestia,自己只负责做一个纯粹的执行层。Plasma反其道而行之,坚持要自己做共识、自己做DA、自己做结算,这种“全栈式”的重资产模式在资本眼中绝对不是一个讨喜的故事,因为它意味着巨大的开发成本和更慢的生态启动速度。但我隐约觉得,这种看似笨重的坚持可能才是打破目前L2割据局面的唯一解法。现在的L2生态就像是早期的军阀混战,Optimism和Arbitrum之间资产互通极其困难,跨链桥不仅贵而且充满了黑客风险,这种碎片化的流动性根本无法支撑起真正的全球支付网络。Plasma通过原生的BFT共识和统一的流动性池,试图在L1层面就解决掉这个问题,这让我想起了苹果的封闭生态,虽然封闭,但内部体验确实做到了极致。如果未来真的有数十亿人使用加密货币进行日常支付,他们绝对不会去忍受在十几个L2之间切来切去的痛苦,他们需要的是一个统一、平滑且无感的底层网络,哪怕这个网络在去中心化程度上做了一些妥协。 更有趣的是我在竞品分析时发现的一个细节,目前市场上号称做“支付链”的项目,大多数都沦为了为了支付而支付的空壳,上面既没有DeFi也没有NFT,导致用户除了转账根本没有留存的理由。而Plasma显然吸取了这个教训,它在强调支付属性的同时,并没有阉割EVM的兼容性,我在测试网上依然可以部署Uniswap的V3合约,依然可以发行ERC-721,这种“既要又要”的策略在执行层面非常考验团队的平衡能力。与之形成鲜明对比的是Ton,Ton依靠Telegram的庞大用户基数确实在支付上有天然优势,但其异步架构和非EVM的开发环境让很多开发者望而却步,导致生态内的应用质量参差不齐,很多都是土狗和博彩盘。Plasma显然是想走一条中间路线,既保留EVM的开发者生态,又引入类似Web2的丝滑支付体验,这步棋走得险,但如果走通了,杀伤力是巨大的。 当然,我在深入研究其验证者节点激励机制时,也发现了一些潜在的中心化隐患,为了保证秒级确认和Gas代币的自动兑换,验证者实际上承担了做市商的角色,这就要求验证者必须具备极强的资金实力和专业的运维能力,普通散户几乎不可能参与到节点的运行中来,这会不会导致网络最终被几个大资本或者交易所垄断?这种“贵族链”的倾向在追求高性能的公链中很常见,Solana就是前车之鉴,经常因为验证者过于集中而导致网络停机。Plasma虽然声称有一套复杂的惩罚机制来遏制这种趋势,但在资本的逐利本性面前,代码里的规则往往是苍白的。而且我也在白皮书的角落里发现了一些关于隐私保护的模糊表述,在如今这个监管日益严苛的环境下,一条主打支付的公链如果不能在合规和隐私之间找到完美的平衡点,很有可能会成为监管机构眼中的出头鸟,特别是涉及到稳定币的流转,KYC和AML的压力迟早会传导到协议层,到时候Plasma所谓的“抗审查性”还能剩多少,我是打个大大的问号的。 这几天的沉浸式体验让我对“基础设施”这个词有了新的理解,真正的基础设施应该是隐形的,就像我们用电时不会去想发电厂是用煤还是用核能一样。现在的区块链之所以还停留在小众狂欢的阶段,就是因为它的“存在感”太强了,我们被迫去理解Gas、私钥、RPC这些晦涩的概念。Plasma试图通过技术手段把这些复杂度隐藏在后台,让前台的用户体验回归到最直觉的状态,这种努力在技术原教旨主义者眼里可能是一种“堕落”,但在产品经理眼里却是通往大规模采用的必经之路。现在的市场情绪很像黎明前的黑暗,大家都在寻找下一个百倍币的叙事,有人赌AI,有人赌RWA,但我越来越觉得,那个能让加密货币真正走进千家万户的破局者,可能就是一个把“转账”这一件小事做到极致的无聊项目。 写到这里,窗外的天已经蒙蒙亮了,测试网上的那个脚本还在跑着,偶尔报出一两个超时错误,提醒我这个系统远未完美。我关掉终端窗口,看着账户里那点剩下的测试币,突然有一种莫名的期待,也许在不久的将来,我真的可以用这个东西在路边的便利店买一杯热咖啡,而不需要向店员解释什么是Layer 2,什么是乐观验证。这种朴素的愿景,可能比任何高深的技术指标都更值得我们下注。在这个充满谎言和泡沫的行业里,哪怕是万分之一的真实改变,都值得我们为之驻足,虽然我知道前方等待Plasma的大概率是漫长的磨合期和无数次的黑天鹅事件,甚至可能在主网上线后因为某个低级Bug而崩盘,但至少在这一刻,它提供了一种不同于主流叙事的可能性,一种试图弥合加密朋克理想与现实商业逻辑之间巨大鸿沟的尝试,而这,正是我还没离开这个圈子的原因。#plasma $XPL
被高估的并行EVM与被低估的支付原语:我在Plasma测试网跑了三天后的真实崩溃与反思
盯着屏幕上那笔在以太坊主网挂了半小时还没确认的交易,我手边的咖啡都凉透了,这种焦虑感在2026年的今天依然像个幽灵一样缠绕着每一个链上交互者,尽管我们已经被各种Layer 2和高性能公链的叙事轰炸了整整一轮牛熊,市面上到处都在吹嘘百万TPS和亚秒级最终性,但当我真正试图把这一笔为了冲某个土狗项目的USDT转出去时,缺少ETH作为Gas费的尴尬瞬间让我觉得自己像是拿着金条却买不到矿泉水的难民。这几天我强迫自己把注意力从那些喧嚣的AI代理和Meme币狂欢中抽离出来,像个苦行僧一样在
@Plasma
的测试网和白皮书里泡了整整三天,说实话,最开始我是抱着找茬的心态去的,毕竟在Monad和Sei这种并行EVM把性能叙事卷到天花板的当下,再搞一条号称做“支付”的Layer 1听起来简直就是上个周期的陈词滥调,甚至有点像是在给投资人讲为了圈钱而编造的过时故事,但随着我深入体验了它的Gas抽象机制并对比了手头几个所谓的“杀手级”竞品后,某种认知上的错位感开始在我脑子里疯狂生长。
我们这个圈子太容易被“宏大叙事”绑架了,所有人都在谈论模块化、谈论链抽象、谈论如何把区块链改造成纳斯达克那样的超级计算机,却选择性地忽略了一个最朴素也是最致命的问题,那就是当我想给住在地球另一端的开发者转一笔咨询费时,我并不在乎你的链到底用了某种高大上的DAG结构还是零知识证明,我只在乎能不能直接把钱包里的USDT发过去,而不是先去中心化交易所买点原生代币充当路费,还得计算会不会留下一堆恶心的粉尘余额。Plasma让我感到意外的地方正是在于这种“反直觉”的做减法,它没有去卷那些看起来很性感的并行执行或者模块化堆栈,而是死磕了支付原语这个听起来土得掉渣的方向。我在测试网尝试用Paymaster功能直接用USDT支付Gas的那一刻,手指在键盘上停顿了几秒,这种流畅感竟然让我产生了一种“这不像是区块链”的错觉,这种体验上一次出现还是我在使用Web2的支付软件时,反观我前几天在高吞吐量的Solana上抢购Meme时,虽然速度快得惊人,但那种时刻担心交易失败、担心滑点、担心钱包被Drain的紧绷感从未消失,Solana确实快,但它更像是一辆没有安全气囊的F1赛车,而Plasma给我的感觉是一辆虽然极速只有200、但内饰极其舒适且永远不会熄火的家用轿车,对于大多数只想从A点到B点的用户来说,后者才是真正的刚需。
技术层面的选型往往暴露了团队的真正野心,Plasma选择了基于Reth构建而不是像大多数EVM兼容链那样直接Fork Geth完事,这本身就是一个极其冒险但又充满品味的决定。我对Reth的关注始于Paradigm刚把它开源的时候,Rust语言带来的内存安全性和执行效率确实是Go语言难以比拟的,但在当时看来这更多是极客的玩具,敢把身家性命压在这个架构上的L1屈指可数。我在翻阅Plasma的代码库时发现,他们并不只是简单地拿来主义,而是对Reth的状态读取机制做了非常深度的魔改,特别是为了适配高频稳定币交易而优化的状态树结构,这让我想起了早期的Polygon,也是在一片质疑声中把以太坊的侧链做得风生水起。相比之下,Monad虽然在并行执行上做得非常激进,试图通过榨干硬件性能来提升TPS,但我始终怀疑这种“暴力美学”在面对真实世界的复杂金融交互时是否真的鲁棒,当链上状态膨胀到几个TB甚至PB级别时,单纯的硬件加速还能不能掩盖架构上的臃肿?Plasma似乎走了另一条路,它承认区块链不可能无限扩展,所以它把核心资源全部倾斜给了“资产转移”这一类特定的操作,这种针对特定场景的垂直优化(Vertical Optimization)在数据库领域早就被证明是有效的,但在通用公链的叙事里却一直是个异类。
这几天的测试中我也遇到了一些令人抓狂的问题,为了测试它的极限,我写了个脚本模拟了几千个并发的微支付交易,结果发现节点同步偶尔会出现短暂的滞后,虽然不影响最终性,但那种“卡顿感”还是存在的,这说明即便是有Reth加持,在网络层面对海量小额交易的广播风暴依然是个巨大的挑战。而且我也注意到社区里有一些关于其代币经济模型的杂音,大家对于XPL作为Gas代币的价值捕获能力表示怀疑,既然用户可以直接用USDT付手续费,那XPL除了作为PoS的质押资产外,流速会不会太高从而导致价格螺旋下跌?这是一个非常尖锐且现实的问题,目前的公链模型大多依赖于“Gas费必须用原生代币”这个强权逻辑来维持币价,Plasma打破了这个铁律,就必须找到新的价值锚定点,否则就会像当年的EOS一样,技术再好也救不了币价的颓势。我不禁拿它和Celo做对比,Celo也是主打移动优先和稳定币支付,但最终还是不得不向以太坊生态投降转型做L2,Plasma现在的处境其实非常微妙,它既要证明自己作为独立L1的安全性,又要证明自己这种原生支持多币种支付的架构是Rollup们做不到或者不屑于做的。
这种对于“独立性”的坚持在现在的市场环境下显得格格不入。我们看到的趋势是大家都争先恐后地去当以太坊的二层,恨不得把数据可用性层(DA)都外包给Celestia,自己只负责做一个纯粹的执行层。Plasma反其道而行之,坚持要自己做共识、自己做DA、自己做结算,这种“全栈式”的重资产模式在资本眼中绝对不是一个讨喜的故事,因为它意味着巨大的开发成本和更慢的生态启动速度。但我隐约觉得,这种看似笨重的坚持可能才是打破目前L2割据局面的唯一解法。现在的L2生态就像是早期的军阀混战,Optimism和Arbitrum之间资产互通极其困难,跨链桥不仅贵而且充满了黑客风险,这种碎片化的流动性根本无法支撑起真正的全球支付网络。Plasma通过原生的BFT共识和统一的流动性池,试图在L1层面就解决掉这个问题,这让我想起了苹果的封闭生态,虽然封闭,但内部体验确实做到了极致。如果未来真的有数十亿人使用加密货币进行日常支付,他们绝对不会去忍受在十几个L2之间切来切去的痛苦,他们需要的是一个统一、平滑且无感的底层网络,哪怕这个网络在去中心化程度上做了一些妥协。
更有趣的是我在竞品分析时发现的一个细节,目前市场上号称做“支付链”的项目,大多数都沦为了为了支付而支付的空壳,上面既没有DeFi也没有NFT,导致用户除了转账根本没有留存的理由。而Plasma显然吸取了这个教训,它在强调支付属性的同时,并没有阉割EVM的兼容性,我在测试网上依然可以部署Uniswap的V3合约,依然可以发行ERC-721,这种“既要又要”的策略在执行层面非常考验团队的平衡能力。与之形成鲜明对比的是Ton,Ton依靠Telegram的庞大用户基数确实在支付上有天然优势,但其异步架构和非EVM的开发环境让很多开发者望而却步,导致生态内的应用质量参差不齐,很多都是土狗和博彩盘。Plasma显然是想走一条中间路线,既保留EVM的开发者生态,又引入类似Web2的丝滑支付体验,这步棋走得险,但如果走通了,杀伤力是巨大的。
当然,我在深入研究其验证者节点激励机制时,也发现了一些潜在的中心化隐患,为了保证秒级确认和Gas代币的自动兑换,验证者实际上承担了做市商的角色,这就要求验证者必须具备极强的资金实力和专业的运维能力,普通散户几乎不可能参与到节点的运行中来,这会不会导致网络最终被几个大资本或者交易所垄断?这种“贵族链”的倾向在追求高性能的公链中很常见,Solana就是前车之鉴,经常因为验证者过于集中而导致网络停机。Plasma虽然声称有一套复杂的惩罚机制来遏制这种趋势,但在资本的逐利本性面前,代码里的规则往往是苍白的。而且我也在白皮书的角落里发现了一些关于隐私保护的模糊表述,在如今这个监管日益严苛的环境下,一条主打支付的公链如果不能在合规和隐私之间找到完美的平衡点,很有可能会成为监管机构眼中的出头鸟,特别是涉及到稳定币的流转,KYC和AML的压力迟早会传导到协议层,到时候Plasma所谓的“抗审查性”还能剩多少,我是打个大大的问号的。
这几天的沉浸式体验让我对“基础设施”这个词有了新的理解,真正的基础设施应该是隐形的,就像我们用电时不会去想发电厂是用煤还是用核能一样。现在的区块链之所以还停留在小众狂欢的阶段,就是因为它的“存在感”太强了,我们被迫去理解Gas、私钥、RPC这些晦涩的概念。Plasma试图通过技术手段把这些复杂度隐藏在后台,让前台的用户体验回归到最直觉的状态,这种努力在技术原教旨主义者眼里可能是一种“堕落”,但在产品经理眼里却是通往大规模采用的必经之路。现在的市场情绪很像黎明前的黑暗,大家都在寻找下一个百倍币的叙事,有人赌AI,有人赌RWA,但我越来越觉得,那个能让加密货币真正走进千家万户的破局者,可能就是一个把“转账”这一件小事做到极致的无聊项目。
写到这里,窗外的天已经蒙蒙亮了,测试网上的那个脚本还在跑着,偶尔报出一两个超时错误,提醒我这个系统远未完美。我关掉终端窗口,看着账户里那点剩下的测试币,突然有一种莫名的期待,也许在不久的将来,我真的可以用这个东西在路边的便利店买一杯热咖啡,而不需要向店员解释什么是Layer 2,什么是乐观验证。这种朴素的愿景,可能比任何高深的技术指标都更值得我们下注。在这个充满谎言和泡沫的行业里,哪怕是万分之一的真实改变,都值得我们为之驻足,虽然我知道前方等待Plasma的大概率是漫长的磨合期和无数次的黑天鹅事件,甚至可能在主网上线后因为某个低级Bug而崩盘,但至少在这一刻,它提供了一种不同于主流叙事的可能性,一种试图弥合加密朋克理想与现实商业逻辑之间巨大鸿沟的尝试,而这,正是我还没离开这个圈子的原因。
#plasma
$XPL
ETH
XPL
Luna月芽
·
--
跑了一周的链上Agent,我才明白为什么大多数AI公链都在裸泳 这就很尴尬,最近为了测几个新的AI Agent项目,我在几个所谓的AI概念链上烧了不少Gas,结果体验简直灾难。市面上那些喊得震天响的项目,剥开皮看本质,无非就是把原本在AWS上跑完的数据生硬地存个哈希上链,这也能叫AI公链?这种脱裤子放屁的操作完全是在侮辱开发者的智商。直到我回头重新啃了一遍@Vanar 的技术白皮书,特别是对比了它和普通EVM链在处理高频推理时的逻辑,才算摸到点门道。 区别真的很明显,大家都在拼TPS的时候,Vanar好像在琢磨怎么让链“读得懂”数据。现在的痛点是,你想在链上跑个稍微复杂点的推理模型,光是数据吞吐产生的Gas费就能让你破产,更别提延迟了。我看Vanar那个Neutron架构,明显是想在底层就把语义理解给做了,这跟那些只做简单的资产跨链的项目完全不是一个维度的竞争。这就好比现在的竞品还在比谁的马车跑得快,Vanar已经在研究怎么铺铁轨了。我之前试过在另一条高性能L1上部署类似的逻辑,结果因为并发太高节点直接卡死,而Vanar利用TensorRT优化的路子,确实是目前看到最接近“原生计算”的解法。 不得不吐槽一下,虽然技术逻辑硬核,但他们那个浏览器的UI交互有时候真的有点反人类,找个合约交互记录得点好几层,建议产品经理赶紧去进修一下。不过瑕不掩瑜,这种基于Google Cloud构建的底层环境,对于我们这种想做真正企业级应用的开发者来说,吸隐力是致命的。别小看那个“碳中和”标签,很多人觉得是圣母心泛滥,其实那是给Web2大厂进场留的后门,毕竟合规才是大资金最在意的护城河。 我看现在的风向,单纯的算力租赁早就卷不动了,Vanar这种直接切入计算层和语义验证的思路,确实比那些只会发模因币的公链要扎实。#vanar $VANRY
跑了一周的链上Agent,我才明白为什么大多数AI公链都在裸泳
这就很尴尬,最近为了测几个新的AI Agent项目,我在几个所谓的AI概念链上烧了不少Gas,结果体验简直灾难。市面上那些喊得震天响的项目,剥开皮看本质,无非就是把原本在AWS上跑完的数据生硬地存个哈希上链,这也能叫AI公链?这种脱裤子放屁的操作完全是在侮辱开发者的智商。直到我回头重新啃了一遍
@Vanarchain
的技术白皮书,特别是对比了它和普通EVM链在处理高频推理时的逻辑,才算摸到点门道。
区别真的很明显,大家都在拼TPS的时候,Vanar好像在琢磨怎么让链“读得懂”数据。现在的痛点是,你想在链上跑个稍微复杂点的推理模型,光是数据吞吐产生的Gas费就能让你破产,更别提延迟了。我看Vanar那个Neutron架构,明显是想在底层就把语义理解给做了,这跟那些只做简单的资产跨链的项目完全不是一个维度的竞争。这就好比现在的竞品还在比谁的马车跑得快,Vanar已经在研究怎么铺铁轨了。我之前试过在另一条高性能L1上部署类似的逻辑,结果因为并发太高节点直接卡死,而Vanar利用TensorRT优化的路子,确实是目前看到最接近“原生计算”的解法。
不得不吐槽一下,虽然技术逻辑硬核,但他们那个浏览器的UI交互有时候真的有点反人类,找个合约交互记录得点好几层,建议产品经理赶紧去进修一下。不过瑕不掩瑜,这种基于Google Cloud构建的底层环境,对于我们这种想做真正企业级应用的开发者来说,吸隐力是致命的。别小看那个“碳中和”标签,很多人觉得是圣母心泛滥,其实那是给Web2大厂进场留的后门,毕竟合规才是大资金最在意的护城河。
我看现在的风向,单纯的算力租赁早就卷不动了,Vanar这种直接切入计算层和语义验证的思路,确实比那些只会发模因币的公链要扎实。
#vanar
$VANRY
VANRY
Luna月芽
·
--
别被 TPS 骗了:我在 Vanar 链上跑了个 AI Agent 后,才看懂什么是真正的机器经济最近盯着屏幕上的 K 线和推特上的各种喊单,不论是 Monad 的并行 EVM 叙事,还是 Solana 永远在吹嘘的吞吐量,都让我产生了一种深深的疲惫感,这种疲惫不是来自亏钱,而是来自一种技术审美的降级,似乎整个行业都陷入了一种奇怪的怪圈,大家都在卷这一秒钟能容纳多少笔垃圾交易,却没人关心这些交易到底承载了什么价值,前两天心血来潮,把手头正在跑的一个简单的套利 Agent 从 Base 迁移到了 Vanar 的测试环境,本意是想去薅一下所谓的生态羊毛,结果这一跑,反倒把我自己给跑清醒了,我突然意识到,我们之前对于“AI 公链”的定义可能从根子上就是错的,那些喊着 AI + DePIN 的项目,大多只是给原本的叙事换了个好听的马甲,而 Vanar 给我展示的,是一种完全不同的野心。 说实话,刚开始看@Vanar 的文档时我是带着有色眼镜的,毕竟这个圈子里的 L1 太多了,多到连水都不够分,谁还需要另一条链呢,但当我真正去部署合约,去调用它的链上逻辑时,我发现了一个很有意思的点,它完全抛弃了那种“为了去中心化而去中心化”的教条主义,转而追求一种极度的工程实用性,这让我想起了当年的 AWS,它不跟你讲什么极客精神,它只告诉你:这东西好用,便宜,且稳,我在以太坊或者 Arbitrum 上跑 Agent,最大的痛点其实不是 Gas 贵(虽然 L1 确实贵到离谱),而是环境的不确定性,我的 Agent 需要不仅是执行交易,更需要一个稳定的、可预测的计算环境,而在 Vanar 上,我第一次体验到了什么叫“确定的商业环境”,这听起来可能有点抽象,举个例子,在传统的 EVM 链上,Gas 价格是随着网络拥堵波动的,这就导致我的 Agent 在做高频决策时,往往会因为 Gas 的突然飙升而导致策略失效,甚至为了抢跑而付出不成比例的成本,但 Vanar 的设计逻辑里,明显把“可预测成本”放在了比“极致 TPS”更重要的位置,这对于我们这种想做真正业务的人来说,简直就是降维打击。 拿现在风头正盛的 Near 来做个对比,Near 的链抽象确实做得不错,致力于让用户无感,但它本质上还是在解决“人”进入 Web3 的门槛问题,而 Vanar 似乎更在意“机器”在 Web3 里的生存状态,我在 Vanar 上部署的那个简易 Agent,在运行过程中调用了链上的数据验证模块,让我惊讶的不是速度,而是它对于上下文数据的处理方式,在其他链上,如果你想让 AI 模型读取链上历史数据,通常需要通过昂贵的索引器或者并不完全可靠的预言机,这一来一回,不仅延迟高,而且信任成本也高,但在 Vanar 的架构里,数据似乎被赋予了一种“热访问”的特权,这种感觉就像是从机械硬盘换到了 NVMe SSD,虽然大家都在存储数据,但读写效率和调用逻辑完全不在一个维度,这就是他们一直在强调的“原生”,以前我觉得这词儿就是营销黑话,现在看来,确实有点东西。 这就要聊到那个让我既爱又恨的竞品 Solana 了,必须承认,Solana 的速度快得惊人,生态也极其繁容,那里的土狗和 meme 确实能让人一夜暴富,但如果你是个正经的开发者,想在上面跑一个稍微复杂点的逻辑,你就会发现它的状态爆炸问题简直是个噩梦,而且频繁的宕机历史(虽然现在好多了)始终像是一把悬在头顶的达摩克里斯之剑,对于金融游戏来说,停机一小时可能只是少赚点钱,但对于未来可能承载自动化商业逻辑的 AI 网络来说,稳定性是绝对的红线,Vanar 在这方面做得非常保守,甚至可以说是“复古”,它没有去卷那些花里胡哨的共识机制创新,而是依托于成熟的技术栈(Google Cloud 等合作伙伴的加持)来构建底层的稳定性,这种策略虽然在币圈看起来不够性感,不够庞氏,但站在软件工程的角度,这才是最稳妥的路径,我甚至在代码里看到了一些非常 Web2 风格的接口设计,这对传统开发者来说极其友好,但也肯定会被那些原教旨主义者喷不够 Crypto Native,管他呢,好用才是硬道理。 在调试过程中我也发现了一些槽点,不得不说,Vanar 目前的生态工具相比于以太坊那样成熟的体系,还是显得有些简陋,很多时候我在找一个特定的 SDK 或者调试工具时,不得不去翻原来的文档或者直接去 Discord 问人,这种体验说实话有点劝退,而且整个链上的流动性目前还比较割裂,不像 Base 那样背靠 Coinbase 有着源源不断的资金注入,Vanar 现在的状态更像是一个刚刚装修好、设施一流但还没怎么招商的科技园区,路修得很宽,楼盖得很漂亮,甚至水电煤(基础设施)都比隔壁老城区(以太坊)要先进得多,但就是缺了点烟火气,缺了点那种让散户疯狂的 FOMO 情绪,不过反过想,这可能也是机会所在,当所有人都挤在拥挤的 L2 上争抢那一点点微薄的收益时,这里却有一片为机器经济量身定做的蓝海。 这就引出了一个更深层的话题,我们到底需要什么样的区块链来承载 AI?现在的市场主流观点是:我们需要更快的链,能存更多数据的链,比如 Arweave 做存储,Render 做计算,然后把结果上链,这种模块化的思路当然没错,但它带来了一个巨大的问题——碎片化,我的 Agent 要去 Arweave 读数据,去 Render 算模型,最后回以太坊结算,这中间的跨桥、通信、信任损耗简直大到无法忍受,Vanar 给我的感觉是,它想做一个“全栈”的解决方案,或者说是一个“AI 友好的特区”,在这个特区里,计算、验证、结算是一体的,它引入的那个名为 Kaion 的组件(如果我没记错名字的话),实际上是在尝试解决链上推理验证的问题,这是一个巨大的痛点,如果 Vanar 真的能把这个跑通,那么以后我们就不需要再把 AI 模型作为一个黑盒子挂在链下,而是可以真正实现模型推理的链上可验证,这才是 AI + Web3 的终极形态,而不是现在这种挂羊头卖狗肉的拼凑感。 还有一点特别有意思,就是 Vanar 对待 Gas 费的态度,在以太坊生态里,Gas 是即时拍卖的,是用户和用户之间的博弈,而在 Vanar 的模型里,我看到了一种试图将 Gas 成本“To B 化”的倾向,也就是说,未来的用户(或者 AI Agent)在使用应用时,可能根本感知不到 Gas 的存在,这些成本被开发者或者背后的商业机构消化了,这听起来是不是很像我们现在用的互联网 App?你刷抖音不需要给服务器付电费,因为字节跳动帮你付了,Vanar 似乎正在把这种逻辑引入区块链,这对于那些习惯了免费互联网服务的 Web2 用户来说,绝对是一个巨大的门槛消减,相比之下,那些还在纠结 EIP-4844 能降多少费用的 L2,眼界真的有点窄了,真正的普及,不是让费用变低,而是让费用感知消失。 哪怕技术再好,没有资产沉淀也是白搭,这是我最担心 Vanar 的地方,现在链上缺乏原生的优质资产,除了那个代币本身,好像还没看到什么杀手级的 DeFi 协议或者爆款游戏,虽然他们签了一堆合作伙伴,甚至包括英伟达这种巨头,但在币圈,合作这种事儿,听听也就罢了,真正的护城河还是链上的 TVL 和日活,我现在每天盯着它的浏览器看,数据确实在增长,但还没到指数级爆发的前夜,这让我有点纠结,一方面觉得这种扎实做基建的项目不应该被埋没,另一方面又怕它最后成了那个叫好不叫座的“死链”,毕竟在这个行业,技术不仅不是万能的,有时候甚至是最不重要的,只要你的 Meme 够劲爆,垃圾代码也能飞上天,但作为一个哪怕被割了无数次依然相信技术改变世界的理工男,我还是愿意在这个赌桌上给 Vanar 留一个位置。 回过头来看,为什么我对 Vanar 这种“重构基础设施”的叙事这么上头?可能是因为受够了那些虚无缥缈的概念,前段时间大火的几个 AI 项目,我都去看了代码,很多基本上就是个外壳,里面调用的还是 OpenAI 的 API,这种中心化的套娃有什么意义呢?而 Vanar 至少在尝试从底层账本结构去适应 AI 的高并发和复杂交互,这种努力在现在的市场环境下显得有点笨拙,甚至有点格格不入,就像大家都去炒房了,还有人在那儿老老实实研究怎么改进水泥配方,但也正是这种笨拙,让我看到了一丝希望,也许下一轮牛市的发动机,真的不是那些只会发推特的“喊单领袖”,而是这些默默在底层修路铺桥的工程师。 如果把时间线拉长到五年,我们回看现在的公链格局,可能会觉得非常可笑,现在的我们,就像是在用拨号上网的速度去畅想 4K 视频流媒体的未来,以太坊是那个臃肿但庞大的电信局,Solana 是个时不时断网但速度飞快的网吧,而 Vanar,更像是在尝试铺设第一条光纤,它现在的带宽可能还没跑满,甚至也没几个人用,但它代表的方向——让数据、计算和价值在链上原生融合——绝对是正确的,特别是当成千上万个 AI Agent 开始在网络中自主交易、自主协作的时候,它们不会选择那个 Gas 费忽高忽低、随时可能被 MEV 夹得底裤都不剩的旧世界,它们会选择那个为它们量身定做的、高效冷静的新世界。 我在写这段代码的时候,窗外的天已经快亮了,屏幕上的 log 还在一行行跳动,那是我的 Agent 在 Vanar 测试网上不知疲倦地运行着,它不休息,不睡觉,也不会因为市场恐慌而抛售,它只认逻辑和代码,看着这些跳动的字符,我突然觉得,这可能就是我们一直在寻找的那个未来,一个剥离了人类贪婪与恐惧,只剩下纯粹数学之美的机器金融网络,Vanar 未必是那个最终的赢家,毕竟这个圈子变数太大,但我敢打赌,它现在所探索的这条路——将区块链从“账本”进化为“智能计算平台”——绝对是通往那个未来的必经之路,至于现在的价格?说实话,在真正的变革面前,K 线真的只是噪音而已,别盯着那几个点的涨跌了,多去看看 GitHub 的提交记录,多去跑跑节点,那里的风景,比交易所的红红绿绿要精彩得多,这不仅仅是关于投资,更是关于认知的一次抢跑。#vanar $VANRY
别被 TPS 骗了:我在 Vanar 链上跑了个 AI Agent 后,才看懂什么是真正的机器经济
最近盯着屏幕上的 K 线和推特上的各种喊单,不论是 Monad 的并行 EVM 叙事,还是 Solana 永远在吹嘘的吞吐量,都让我产生了一种深深的疲惫感,这种疲惫不是来自亏钱,而是来自一种技术审美的降级,似乎整个行业都陷入了一种奇怪的怪圈,大家都在卷这一秒钟能容纳多少笔垃圾交易,却没人关心这些交易到底承载了什么价值,前两天心血来潮,把手头正在跑的一个简单的套利 Agent 从 Base 迁移到了 Vanar 的测试环境,本意是想去薅一下所谓的生态羊毛,结果这一跑,反倒把我自己给跑清醒了,我突然意识到,我们之前对于“AI 公链”的定义可能从根子上就是错的,那些喊着 AI + DePIN 的项目,大多只是给原本的叙事换了个好听的马甲,而 Vanar 给我展示的,是一种完全不同的野心。
说实话,刚开始看
@Vanarchain
的文档时我是带着有色眼镜的,毕竟这个圈子里的 L1 太多了,多到连水都不够分,谁还需要另一条链呢,但当我真正去部署合约,去调用它的链上逻辑时,我发现了一个很有意思的点,它完全抛弃了那种“为了去中心化而去中心化”的教条主义,转而追求一种极度的工程实用性,这让我想起了当年的 AWS,它不跟你讲什么极客精神,它只告诉你:这东西好用,便宜,且稳,我在以太坊或者 Arbitrum 上跑 Agent,最大的痛点其实不是 Gas 贵(虽然 L1 确实贵到离谱),而是环境的不确定性,我的 Agent 需要不仅是执行交易,更需要一个稳定的、可预测的计算环境,而在 Vanar 上,我第一次体验到了什么叫“确定的商业环境”,这听起来可能有点抽象,举个例子,在传统的 EVM 链上,Gas 价格是随着网络拥堵波动的,这就导致我的 Agent 在做高频决策时,往往会因为 Gas 的突然飙升而导致策略失效,甚至为了抢跑而付出不成比例的成本,但 Vanar 的设计逻辑里,明显把“可预测成本”放在了比“极致 TPS”更重要的位置,这对于我们这种想做真正业务的人来说,简直就是降维打击。
拿现在风头正盛的 Near 来做个对比,Near 的链抽象确实做得不错,致力于让用户无感,但它本质上还是在解决“人”进入 Web3 的门槛问题,而 Vanar 似乎更在意“机器”在 Web3 里的生存状态,我在 Vanar 上部署的那个简易 Agent,在运行过程中调用了链上的数据验证模块,让我惊讶的不是速度,而是它对于上下文数据的处理方式,在其他链上,如果你想让 AI 模型读取链上历史数据,通常需要通过昂贵的索引器或者并不完全可靠的预言机,这一来一回,不仅延迟高,而且信任成本也高,但在 Vanar 的架构里,数据似乎被赋予了一种“热访问”的特权,这种感觉就像是从机械硬盘换到了 NVMe SSD,虽然大家都在存储数据,但读写效率和调用逻辑完全不在一个维度,这就是他们一直在强调的“原生”,以前我觉得这词儿就是营销黑话,现在看来,确实有点东西。
这就要聊到那个让我既爱又恨的竞品 Solana 了,必须承认,Solana 的速度快得惊人,生态也极其繁容,那里的土狗和 meme 确实能让人一夜暴富,但如果你是个正经的开发者,想在上面跑一个稍微复杂点的逻辑,你就会发现它的状态爆炸问题简直是个噩梦,而且频繁的宕机历史(虽然现在好多了)始终像是一把悬在头顶的达摩克里斯之剑,对于金融游戏来说,停机一小时可能只是少赚点钱,但对于未来可能承载自动化商业逻辑的 AI 网络来说,稳定性是绝对的红线,Vanar 在这方面做得非常保守,甚至可以说是“复古”,它没有去卷那些花里胡哨的共识机制创新,而是依托于成熟的技术栈(Google Cloud 等合作伙伴的加持)来构建底层的稳定性,这种策略虽然在币圈看起来不够性感,不够庞氏,但站在软件工程的角度,这才是最稳妥的路径,我甚至在代码里看到了一些非常 Web2 风格的接口设计,这对传统开发者来说极其友好,但也肯定会被那些原教旨主义者喷不够 Crypto Native,管他呢,好用才是硬道理。
在调试过程中我也发现了一些槽点,不得不说,Vanar 目前的生态工具相比于以太坊那样成熟的体系,还是显得有些简陋,很多时候我在找一个特定的 SDK 或者调试工具时,不得不去翻原来的文档或者直接去 Discord 问人,这种体验说实话有点劝退,而且整个链上的流动性目前还比较割裂,不像 Base 那样背靠 Coinbase 有着源源不断的资金注入,Vanar 现在的状态更像是一个刚刚装修好、设施一流但还没怎么招商的科技园区,路修得很宽,楼盖得很漂亮,甚至水电煤(基础设施)都比隔壁老城区(以太坊)要先进得多,但就是缺了点烟火气,缺了点那种让散户疯狂的 FOMO 情绪,不过反过想,这可能也是机会所在,当所有人都挤在拥挤的 L2 上争抢那一点点微薄的收益时,这里却有一片为机器经济量身定做的蓝海。
这就引出了一个更深层的话题,我们到底需要什么样的区块链来承载 AI?现在的市场主流观点是:我们需要更快的链,能存更多数据的链,比如 Arweave 做存储,Render 做计算,然后把结果上链,这种模块化的思路当然没错,但它带来了一个巨大的问题——碎片化,我的 Agent 要去 Arweave 读数据,去 Render 算模型,最后回以太坊结算,这中间的跨桥、通信、信任损耗简直大到无法忍受,Vanar 给我的感觉是,它想做一个“全栈”的解决方案,或者说是一个“AI 友好的特区”,在这个特区里,计算、验证、结算是一体的,它引入的那个名为 Kaion 的组件(如果我没记错名字的话),实际上是在尝试解决链上推理验证的问题,这是一个巨大的痛点,如果 Vanar 真的能把这个跑通,那么以后我们就不需要再把 AI 模型作为一个黑盒子挂在链下,而是可以真正实现模型推理的链上可验证,这才是 AI + Web3 的终极形态,而不是现在这种挂羊头卖狗肉的拼凑感。
还有一点特别有意思,就是 Vanar 对待 Gas 费的态度,在以太坊生态里,Gas 是即时拍卖的,是用户和用户之间的博弈,而在 Vanar 的模型里,我看到了一种试图将 Gas 成本“To B 化”的倾向,也就是说,未来的用户(或者 AI Agent)在使用应用时,可能根本感知不到 Gas 的存在,这些成本被开发者或者背后的商业机构消化了,这听起来是不是很像我们现在用的互联网 App?你刷抖音不需要给服务器付电费,因为字节跳动帮你付了,Vanar 似乎正在把这种逻辑引入区块链,这对于那些习惯了免费互联网服务的 Web2 用户来说,绝对是一个巨大的门槛消减,相比之下,那些还在纠结 EIP-4844 能降多少费用的 L2,眼界真的有点窄了,真正的普及,不是让费用变低,而是让费用感知消失。
哪怕技术再好,没有资产沉淀也是白搭,这是我最担心 Vanar 的地方,现在链上缺乏原生的优质资产,除了那个代币本身,好像还没看到什么杀手级的 DeFi 协议或者爆款游戏,虽然他们签了一堆合作伙伴,甚至包括英伟达这种巨头,但在币圈,合作这种事儿,听听也就罢了,真正的护城河还是链上的 TVL 和日活,我现在每天盯着它的浏览器看,数据确实在增长,但还没到指数级爆发的前夜,这让我有点纠结,一方面觉得这种扎实做基建的项目不应该被埋没,另一方面又怕它最后成了那个叫好不叫座的“死链”,毕竟在这个行业,技术不仅不是万能的,有时候甚至是最不重要的,只要你的 Meme 够劲爆,垃圾代码也能飞上天,但作为一个哪怕被割了无数次依然相信技术改变世界的理工男,我还是愿意在这个赌桌上给 Vanar 留一个位置。
回过头来看,为什么我对 Vanar 这种“重构基础设施”的叙事这么上头?可能是因为受够了那些虚无缥缈的概念,前段时间大火的几个 AI 项目,我都去看了代码,很多基本上就是个外壳,里面调用的还是 OpenAI 的 API,这种中心化的套娃有什么意义呢?而 Vanar 至少在尝试从底层账本结构去适应 AI 的高并发和复杂交互,这种努力在现在的市场环境下显得有点笨拙,甚至有点格格不入,就像大家都去炒房了,还有人在那儿老老实实研究怎么改进水泥配方,但也正是这种笨拙,让我看到了一丝希望,也许下一轮牛市的发动机,真的不是那些只会发推特的“喊单领袖”,而是这些默默在底层修路铺桥的工程师。
如果把时间线拉长到五年,我们回看现在的公链格局,可能会觉得非常可笑,现在的我们,就像是在用拨号上网的速度去畅想 4K 视频流媒体的未来,以太坊是那个臃肿但庞大的电信局,Solana 是个时不时断网但速度飞快的网吧,而 Vanar,更像是在尝试铺设第一条光纤,它现在的带宽可能还没跑满,甚至也没几个人用,但它代表的方向——让数据、计算和价值在链上原生融合——绝对是正确的,特别是当成千上万个 AI Agent 开始在网络中自主交易、自主协作的时候,它们不会选择那个 Gas 费忽高忽低、随时可能被 MEV 夹得底裤都不剩的旧世界,它们会选择那个为它们量身定做的、高效冷静的新世界。
我在写这段代码的时候,窗外的天已经快亮了,屏幕上的 log 还在一行行跳动,那是我的 Agent 在 Vanar 测试网上不知疲倦地运行着,它不休息,不睡觉,也不会因为市场恐慌而抛售,它只认逻辑和代码,看着这些跳动的字符,我突然觉得,这可能就是我们一直在寻找的那个未来,一个剥离了人类贪婪与恐惧,只剩下纯粹数学之美的机器金融网络,Vanar 未必是那个最终的赢家,毕竟这个圈子变数太大,但我敢打赌,它现在所探索的这条路——将区块链从“账本”进化为“智能计算平台”——绝对是通往那个未来的必经之路,至于现在的价格?说实话,在真正的变革面前,K 线真的只是噪音而已,别盯着那几个点的涨跌了,多去看看 GitHub 的提交记录,多去跑跑节点,那里的风景,比交易所的红红绿绿要精彩得多,这不仅仅是关于投资,更是关于认知的一次抢跑。
#vanar
$VANRY
ETH
SOL
VANRY
Luna月芽
·
--
别再往以太坊上硬塞图片了,@WalrusProtocol 才是链上存储该有的样子 最近帮朋友的一个 NFT 项目做迁移,原本打算继续用 IPFS,结果发现那边的 Pinning 服务越来越不靠谱,节点掉线是家常便饭。转头硬啃了一周 Walrus 的文档,那种感觉就像是从绿皮火车换到了高铁。我们被以太坊的叙事困太久了,潜意识里总觉得所有数据都得塞进那个拥挤的区块里,或者为了省钱挂在中心化服务器上,结果就是要么 Gas 费贵得离谱,要么完全丧失了抗审查性。Walrus 的路子很野,它把存储和共识彻底剥离了,Sui 只负责记账和权限逻辑,大块的二进制数据直接扔给存储节点,这种设计才符合计算机工程的基本常识。 比起 Fliecoin 那种取回数据还得走检索市场、甚至要等矿工响应的繁琐流程,Walrus 的读取体验简直快得不像是去中心化网络。我测试读取一个 200MB 的数据集,本来做好了等一壶茶的心理准备,结果几乎是秒级响应,这得归功于它底层的 RaptorQ 编码。这玩意不需要全网确认,只要凑齐足够的碎片就能还原,数学的暴力美学在这里体现得淋漓尽致。不过有一说一,目前的开发者体验还是有不少槽点,官方给的示例代码太旧,跑的时候经常报错,害我调试的时候对着屏幕骂了好几次娘,典型的工程师思维,只管代码逻辑自洽,不管使用者上不上手。 但你不得不承认 Move 语言在处理这些存储资源时的降维打击。在 Solidity 里搞个动态 NFT 简直是噩梦,光是状态更新就能把人搞疯,而现在 Walrus 里的 Blod 可以直接映射成 Sui 上的对象,不仅能确权还能像乐高一样组合。这对于以后那些想做链上 AI 的项目来说太关键了,你总不能指望把大模型的参数存在 AWS 上吧,那还叫什么 Web3?#walrus $WAL
别再往以太坊上硬塞图片了,
@Walrus 🦭/acc
才是链上存储该有的样子
最近帮朋友的一个 NFT 项目做迁移,原本打算继续用 IPFS,结果发现那边的 Pinning 服务越来越不靠谱,节点掉线是家常便饭。转头硬啃了一周 Walrus 的文档,那种感觉就像是从绿皮火车换到了高铁。我们被以太坊的叙事困太久了,潜意识里总觉得所有数据都得塞进那个拥挤的区块里,或者为了省钱挂在中心化服务器上,结果就是要么 Gas 费贵得离谱,要么完全丧失了抗审查性。Walrus 的路子很野,它把存储和共识彻底剥离了,Sui 只负责记账和权限逻辑,大块的二进制数据直接扔给存储节点,这种设计才符合计算机工程的基本常识。
比起 Fliecoin 那种取回数据还得走检索市场、甚至要等矿工响应的繁琐流程,Walrus 的读取体验简直快得不像是去中心化网络。我测试读取一个 200MB 的数据集,本来做好了等一壶茶的心理准备,结果几乎是秒级响应,这得归功于它底层的 RaptorQ 编码。这玩意不需要全网确认,只要凑齐足够的碎片就能还原,数学的暴力美学在这里体现得淋漓尽致。不过有一说一,目前的开发者体验还是有不少槽点,官方给的示例代码太旧,跑的时候经常报错,害我调试的时候对着屏幕骂了好几次娘,典型的工程师思维,只管代码逻辑自洽,不管使用者上不上手。
但你不得不承认 Move 语言在处理这些存储资源时的降维打击。在 Solidity 里搞个动态 NFT 简直是噩梦,光是状态更新就能把人搞疯,而现在 Walrus 里的 Blod 可以直接映射成 Sui 上的对象,不仅能确权还能像乐高一样组合。这对于以后那些想做链上 AI 的项目来说太关键了,你总不能指望把大模型的参数存在 AWS 上吧,那还叫什么 Web3?
#walrus
$WAL
ETH
SUI
WAL
Luna月芽
·
--
当 NFT 变成 404 的时候,我们究竟在尴尬什么:Walrus 带来的存储反思前几天深夜,我在整理自己那几个落满灰尘的冷钱包时,点开了一个 2021 年花了大价钱 Mint 的 PFP 系列,结果迎接我的是一排整整齐齐的“裂图”图标。那一瞬间,我甚至没感到生气,而是有一种近乎荒诞的宿命感。我们这群人,天天在推特上喊着“Code is Law”、“数据主权”,结果连张几百 KB 的图片都保不住。顺藤摸瓜去查了一下,原来是项目方没钱续费 AWS 了,而那个所谓的 IPFS 哈希,因为没人做种(Pin),早就在网络中销声匿迹。这大概是 Web3 最大的笑话:我们构建了永恒的资产,却把它寄托在随时会断电的服务器上。这种像吃了苍蝇一样的感觉,直接导致我这几天对市面上所有的去中心化存储项目都带着一股怨气,直到我耐着性子把 Mysten Labs 的 @WalrusProtocol 文档翻了一遍,又在测试网里折腾了几个晚上,那股郁结在心头的闷气才稍微顺了点。 说实话,刚开始看 Walrus 的时候,我其实是抱着找茬的心态去的。毕竟这几年打着“存储革命”旗号的项目多如牛毛,最后大都成了空气。Arweave 那个“一次付费,永久存储”的口号听起来确实很朋克,极具理想主义色彩,但在工程落地时,你不得不面对一个尴尬的现实:永久是个伪命题。在硬件老化、币价波动和法币通胀的三重夹击下,指望现在的几十美金能覆盖未来一百年的硬盘成本,这更象是一种金融赌博而非商业逻辑。而且,Arweave 的写入机制注定了它快不起来,它更像是一个用来刻碑的工具,而不是用来跑互联网应用的硬盘。至于 Filecoin,那简直就是工程师的噩梦,极其复杂的封装流程和证明机制,让它变成了一个巨大的冷数据黑洞——数据存进去容易,想快速取出来?对不起,请排队,请付费,请等待。 Walrus 让我觉的有点东西的地方,在于它终于承认了一个事实:区块链本身就不适合存大数据。它没有试图去改进区块链的 TPS 来硬抗数据,而是把数据存储这件事从共识层彻底剥离了出来。这种架构上的“认怂”,其实是一种极高明的工程智慧。它利用 Sui 来处理那层最薄、最昂贵的“所有权”逻辑,比如谁存了什么、付了多少钱、存多久;而把真正占地儿的图片、视频、代码包,扔给了 Walrus 网络。我在本地跑节点的时候,特意观察了一下它的数据切片过程,那个基于 RaptorQ 的纠删码(Erasure Coding)技术,确实比传统的全副本复制要优雅太多了。 以前我们做分布式存储,逻辑特简单粗暴:怕丢?那就多存几份。一份数据存三个节点,成本直接翻三倍。这在 Web2 时代既然都是自家机房还无所谓,但在 Web3 这种极其敏感的成本模型下,简直是灾难。Walrus 的做法是把文件像碎纸机一样切碎,然后通过数学编码,把这些碎片撒到全网。最神奇的是,你不需要集齐所有碎片,只要随便抓回来一小部分(比如 50% 甚至更少),就能通过数学公式把原始文件“算”出来。这种全息式的数据恢复机制,给我一种很强的安全感。它不再依赖某个特定节点的“人品”,而是依赖概率论。只要全网不是瞬间毁灭,我的数据就大概率能活下来。这种基于数学的鲁棒性,比任何经济惩罚机制都来得实在。 在测试网体验的过程中,我尝试上传了一个 1GB 左右的测试数据集,原本以为会像 IPFS 那样卡半天,结果上传速度快得惊人,几乎跑满了我本地的上行带宽。下载的时候更是丝滑,完全没有那种“寻址半天找不到人”的焦虑感。这得益于 Walrus 对缓存和 CDN 的友好支持,它在读取层面做了很多优化,让体验非常接近传统的 AWS S3。这恰恰是现在 Web3 最缺的东西——用户体验。用户才不管你背后用了什么高大上的密码学技术,他们只在乎图片是不是秒开,视频卡不卡。如果去中心化的代价是用户体验倒退十年,那 Mass Adoption 永远是个笑话。 不过,虽然 Walrus 的架构很性感,但现阶段的毛病也不少。必竟还在早期,工具链极其匮乏。你想在上面部署一个静态网站,得自己手搓命令行,没有类似 Vercel 那种一键部署的爽感。而且在测试过程中,我发现节点的稳定性还是个谜。有时候明明网络状况良好,上传却会莫名其妙超时,报错信息也是那种典型的工程师思维——堆出一堆只有上帝和开发者自己能看懂的错误码。我看社区里也有人在吐槽这个问题,看来稳定性这块还得磨。另外,虽然它依附于 Sui 生态,这既是优势也是劣势。优势是能蹭到 Sui 的高性能和 Move 语言的安全性,劣势是可能会让其他链的开发者产生“生殖隔离”的错觉,觉得这是 Sui 的私产。其实从技术上看,Walrus 的 Blob ID 是通用的,完全可以跨链使用,但这需要大量的跨链桥和中间件来做适配,目前这块还是一片荒漠。 说到应用场景,我觉的 Walrus 最让我兴奋的不是存 NFT 图片,而是它对 AI 和全链游戏的支持。最近 DePIN 和去中心化 AI 炒得很火,但大家似乎都刻意回避了一个问题:AI 模型那么大,存哪?现在的 LLM 动不动就几十个 G,你让节点怎么存?怎么同步?Walrus 这种高吞吐、低成本的特性,简直就是为 AI 量身定做的。我试着把一个开源的 Stable Diffusion 模型切片传上去,再用脚本拉取,整个过程非常顺畅。想象一下,未来我们可以在链上直接引用存储在 Walrus 里的模型权重,通过智能合约进行版本管理和版权分发,这才是真正的 AI x Crypto。而不是现在这种,发个币,然后后端还是调用的 OpenAI API。 还有一点让我深思的是关于“状态爆炸”的问题。以太坊为此头疼了好像很多年,各种 EIP 提来提去。Walrus 提供了一种很清奇的思路:把那些死数据、冷数据统统扔出去,链上只留一个轻量级的证明。这种“瘦身”策略,可能会是未来高性能公链的标配。Sui 加 Walrus 的组合,其实就是在演示这种“计算与存储分离”的终极形态。如果这套模式能跑通,以后的 DApp 架构会发生翻天覆地的变化。我们可能真的不再需要后端服务器了,前端代码在 Walrus 里,后端逻辑在链上,数据库也在 Walrus 里,这才是真正的 Serverless,真正的 Unstoppable Application。 这几天在 Discord 里潜水,发现关注 Walrus 的人其实还不多,大部分是硬核的技术极客,没什么炒币的散户。这种冷清反而让我觉的踏实。在币圈,人声鼎沸的地方往往是镰刀挥舞最快的地方,而真正的机会,通常都藏在那些只有代码敲击声的角落里。当然,我不是在奶它,Walrus 即使技术再牛,也面临着巨大的落地挑战。经济模型能不能跑通?如果没有足够的代币激励,节点愿不愿意存冷数据?当币价下跌时,网络会不会发生死亡螺旋?这些都是未解之谜。Filecoin 遇到的坑,Walrus 一个都跑不掉,甚至可能踩到新的坑。 但无论如何,Walrus 的出现给了我一种除了“忍受中心化”和“忍受龟速去中心化”之外的第三种选择。它试图用工程手段去解决一个哲学问题:如何在不牺牲去中心化原则的前提下,让效率回归。这种尝试本身就值得尊重。对于我们这些还在这个行业里摸爬滚打的开发者来说,多一个好用的工具,就多一分活下去的希望。也许几年后,当我们再回看现在的存储赛道,会发现 Walrus 是那个转折点,就像 AWS S3 当年改变了互联网开发模式一样。或者它也可能失败,变成技术博物馆里的又一个标本。但至少现在,看着终端里那一行行绿色的 "Stored Successfully",我愿意给它投上一票。毕竟,谁也不想再看到自己花钱买的 NFT 变成 404 了,那种感觉,真的很下头。所以,别光盯着 K 线看了,去跑跑节点,去读读那该死的纠删码文档,那里面的东西,比所谓的大道消息要真实得多。#walrus $WAL
当 NFT 变成 404 的时候,我们究竟在尴尬什么:Walrus 带来的存储反思
前几天深夜,我在整理自己那几个落满灰尘的冷钱包时,点开了一个 2021 年花了大价钱 Mint 的 PFP 系列,结果迎接我的是一排整整齐齐的“裂图”图标。那一瞬间,我甚至没感到生气,而是有一种近乎荒诞的宿命感。我们这群人,天天在推特上喊着“Code is Law”、“数据主权”,结果连张几百 KB 的图片都保不住。顺藤摸瓜去查了一下,原来是项目方没钱续费 AWS 了,而那个所谓的 IPFS 哈希,因为没人做种(Pin),早就在网络中销声匿迹。这大概是 Web3 最大的笑话:我们构建了永恒的资产,却把它寄托在随时会断电的服务器上。这种像吃了苍蝇一样的感觉,直接导致我这几天对市面上所有的去中心化存储项目都带着一股怨气,直到我耐着性子把 Mysten Labs 的
@Walrus 🦭/acc
文档翻了一遍,又在测试网里折腾了几个晚上,那股郁结在心头的闷气才稍微顺了点。
说实话,刚开始看 Walrus 的时候,我其实是抱着找茬的心态去的。毕竟这几年打着“存储革命”旗号的项目多如牛毛,最后大都成了空气。Arweave 那个“一次付费,永久存储”的口号听起来确实很朋克,极具理想主义色彩,但在工程落地时,你不得不面对一个尴尬的现实:永久是个伪命题。在硬件老化、币价波动和法币通胀的三重夹击下,指望现在的几十美金能覆盖未来一百年的硬盘成本,这更象是一种金融赌博而非商业逻辑。而且,Arweave 的写入机制注定了它快不起来,它更像是一个用来刻碑的工具,而不是用来跑互联网应用的硬盘。至于 Filecoin,那简直就是工程师的噩梦,极其复杂的封装流程和证明机制,让它变成了一个巨大的冷数据黑洞——数据存进去容易,想快速取出来?对不起,请排队,请付费,请等待。
Walrus 让我觉的有点东西的地方,在于它终于承认了一个事实:区块链本身就不适合存大数据。它没有试图去改进区块链的 TPS 来硬抗数据,而是把数据存储这件事从共识层彻底剥离了出来。这种架构上的“认怂”,其实是一种极高明的工程智慧。它利用 Sui 来处理那层最薄、最昂贵的“所有权”逻辑,比如谁存了什么、付了多少钱、存多久;而把真正占地儿的图片、视频、代码包,扔给了 Walrus 网络。我在本地跑节点的时候,特意观察了一下它的数据切片过程,那个基于 RaptorQ 的纠删码(Erasure Coding)技术,确实比传统的全副本复制要优雅太多了。
以前我们做分布式存储,逻辑特简单粗暴:怕丢?那就多存几份。一份数据存三个节点,成本直接翻三倍。这在 Web2 时代既然都是自家机房还无所谓,但在 Web3 这种极其敏感的成本模型下,简直是灾难。Walrus 的做法是把文件像碎纸机一样切碎,然后通过数学编码,把这些碎片撒到全网。最神奇的是,你不需要集齐所有碎片,只要随便抓回来一小部分(比如 50% 甚至更少),就能通过数学公式把原始文件“算”出来。这种全息式的数据恢复机制,给我一种很强的安全感。它不再依赖某个特定节点的“人品”,而是依赖概率论。只要全网不是瞬间毁灭,我的数据就大概率能活下来。这种基于数学的鲁棒性,比任何经济惩罚机制都来得实在。
在测试网体验的过程中,我尝试上传了一个 1GB 左右的测试数据集,原本以为会像 IPFS 那样卡半天,结果上传速度快得惊人,几乎跑满了我本地的上行带宽。下载的时候更是丝滑,完全没有那种“寻址半天找不到人”的焦虑感。这得益于 Walrus 对缓存和 CDN 的友好支持,它在读取层面做了很多优化,让体验非常接近传统的 AWS S3。这恰恰是现在 Web3 最缺的东西——用户体验。用户才不管你背后用了什么高大上的密码学技术,他们只在乎图片是不是秒开,视频卡不卡。如果去中心化的代价是用户体验倒退十年,那 Mass Adoption 永远是个笑话。
不过,虽然 Walrus 的架构很性感,但现阶段的毛病也不少。必竟还在早期,工具链极其匮乏。你想在上面部署一个静态网站,得自己手搓命令行,没有类似 Vercel 那种一键部署的爽感。而且在测试过程中,我发现节点的稳定性还是个谜。有时候明明网络状况良好,上传却会莫名其妙超时,报错信息也是那种典型的工程师思维——堆出一堆只有上帝和开发者自己能看懂的错误码。我看社区里也有人在吐槽这个问题,看来稳定性这块还得磨。另外,虽然它依附于 Sui 生态,这既是优势也是劣势。优势是能蹭到 Sui 的高性能和 Move 语言的安全性,劣势是可能会让其他链的开发者产生“生殖隔离”的错觉,觉得这是 Sui 的私产。其实从技术上看,Walrus 的 Blob ID 是通用的,完全可以跨链使用,但这需要大量的跨链桥和中间件来做适配,目前这块还是一片荒漠。
说到应用场景,我觉的 Walrus 最让我兴奋的不是存 NFT 图片,而是它对 AI 和全链游戏的支持。最近 DePIN 和去中心化 AI 炒得很火,但大家似乎都刻意回避了一个问题:AI 模型那么大,存哪?现在的 LLM 动不动就几十个 G,你让节点怎么存?怎么同步?Walrus 这种高吞吐、低成本的特性,简直就是为 AI 量身定做的。我试着把一个开源的 Stable Diffusion 模型切片传上去,再用脚本拉取,整个过程非常顺畅。想象一下,未来我们可以在链上直接引用存储在 Walrus 里的模型权重,通过智能合约进行版本管理和版权分发,这才是真正的 AI x Crypto。而不是现在这种,发个币,然后后端还是调用的 OpenAI API。
还有一点让我深思的是关于“状态爆炸”的问题。以太坊为此头疼了好像很多年,各种 EIP 提来提去。Walrus 提供了一种很清奇的思路:把那些死数据、冷数据统统扔出去,链上只留一个轻量级的证明。这种“瘦身”策略,可能会是未来高性能公链的标配。Sui 加 Walrus 的组合,其实就是在演示这种“计算与存储分离”的终极形态。如果这套模式能跑通,以后的 DApp 架构会发生翻天覆地的变化。我们可能真的不再需要后端服务器了,前端代码在 Walrus 里,后端逻辑在链上,数据库也在 Walrus 里,这才是真正的 Serverless,真正的 Unstoppable Application。
这几天在 Discord 里潜水,发现关注 Walrus 的人其实还不多,大部分是硬核的技术极客,没什么炒币的散户。这种冷清反而让我觉的踏实。在币圈,人声鼎沸的地方往往是镰刀挥舞最快的地方,而真正的机会,通常都藏在那些只有代码敲击声的角落里。当然,我不是在奶它,Walrus 即使技术再牛,也面临着巨大的落地挑战。经济模型能不能跑通?如果没有足够的代币激励,节点愿不愿意存冷数据?当币价下跌时,网络会不会发生死亡螺旋?这些都是未解之谜。Filecoin 遇到的坑,Walrus 一个都跑不掉,甚至可能踩到新的坑。
但无论如何,Walrus 的出现给了我一种除了“忍受中心化”和“忍受龟速去中心化”之外的第三种选择。它试图用工程手段去解决一个哲学问题:如何在不牺牲去中心化原则的前提下,让效率回归。这种尝试本身就值得尊重。对于我们这些还在这个行业里摸爬滚打的开发者来说,多一个好用的工具,就多一分活下去的希望。也许几年后,当我们再回看现在的存储赛道,会发现 Walrus 是那个转折点,就像 AWS S3 当年改变了互联网开发模式一样。或者它也可能失败,变成技术博物馆里的又一个标本。但至少现在,看着终端里那一行行绿色的 "Stored Successfully",我愿意给它投上一票。毕竟,谁也不想再看到自己花钱买的 NFT 变成 404 了,那种感觉,真的很下头。所以,别光盯着 K 线看了,去跑跑节点,去读读那该死的纠删码文档,那里面的东西,比所谓的大道消息要真实得多。
#walrus
$WAL
SUI
WAL
Luna月芽
·
--
都在卷TPS,怎么没人谈谈那个反人类的Gas费? 最近圈子里都在谈论基础设施过剩,但我跑了一圈所谓的“高性能公链”,体验依然是一坨。转个U还得先去交易所买点原生代币做Gas,这种反人类的设计居然被我们忍受了这么多年。这也是为什么当我硬着头皮去测@Plasma 的时候,那种违和感特别强——钱包里明明没有XPL,但这笔USDT转账居然直接确认了。 这就不得不提他们的Paymaster机制,这玩意儿比那些吹上天的TPS扩容实在多了。你去看看现在的L2战场,Arbitrum和Optimism还在卷吞吐量,结果链上全是刷空投的机器人,真实用户体验并没有质的飞跃。Plasma走的明显是另一条路,把Web3的门坎降到和支付宝一样。我特意去扒了下代码,EVM全兼容,这意味着开发者从以太坊迁移过来几乎是无缝的,不用为了迁就新环境去重写合约。 作为研究者我们不能只看面子,安全性始终是悬在头顶的剑。Plasma把状态锚定到比特币网络这点倒是挺取巧,借BTC的算力给自己的安全性背书,这在Layer 2漫天飞的当下算是个聪明的“借势”。数据不会撒谎,Maple上面的SyrupUSDT借贷池TVL能跑到11亿刀,机构的钱可是最精明的,愿意沉淀在这里本身就说明了某种共识。再加上Rain cards这些落地场景,直接能刷Visa消费,这确实比那些只会画饼的项目要落地的多。 问题依然很刺眼,现在的节点验证还是太过于中心化了,这种“团队说了算”的架构在去中心化原教旨主义者眼里简直是大逆不道。生态应用的丰富度也完全不够看,除了转账和借贷,我拿着钱在链上转了一圈,竟然找不到几个好玩的DApp,这也是目前最大的硬伤。 XPL现在的价格确实惨不忍睹,但这反而给了我们一个剥离情绪看本质的窗口。如果Web3支付真的要走向大众,Gas费这个拦路虎必须死,而Plasma似乎手里正握着那把刀。#plasma $XPL
都在卷TPS,怎么没人谈谈那个反人类的Gas费?
最近圈子里都在谈论基础设施过剩,但我跑了一圈所谓的“高性能公链”,体验依然是一坨。转个U还得先去交易所买点原生代币做Gas,这种反人类的设计居然被我们忍受了这么多年。这也是为什么当我硬着头皮去测
@Plasma
的时候,那种违和感特别强——钱包里明明没有XPL,但这笔USDT转账居然直接确认了。
这就不得不提他们的Paymaster机制,这玩意儿比那些吹上天的TPS扩容实在多了。你去看看现在的L2战场,Arbitrum和Optimism还在卷吞吐量,结果链上全是刷空投的机器人,真实用户体验并没有质的飞跃。Plasma走的明显是另一条路,把Web3的门坎降到和支付宝一样。我特意去扒了下代码,EVM全兼容,这意味着开发者从以太坊迁移过来几乎是无缝的,不用为了迁就新环境去重写合约。
作为研究者我们不能只看面子,安全性始终是悬在头顶的剑。Plasma把状态锚定到比特币网络这点倒是挺取巧,借BTC的算力给自己的安全性背书,这在Layer 2漫天飞的当下算是个聪明的“借势”。数据不会撒谎,Maple上面的SyrupUSDT借贷池TVL能跑到11亿刀,机构的钱可是最精明的,愿意沉淀在这里本身就说明了某种共识。再加上Rain cards这些落地场景,直接能刷Visa消费,这确实比那些只会画饼的项目要落地的多。
问题依然很刺眼,现在的节点验证还是太过于中心化了,这种“团队说了算”的架构在去中心化原教旨主义者眼里简直是大逆不道。生态应用的丰富度也完全不够看,除了转账和借贷,我拿着钱在链上转了一圈,竟然找不到几个好玩的DApp,这也是目前最大的硬伤。
XPL现在的价格确实惨不忍睹,但这反而给了我们一个剥离情绪看本质的窗口。如果Web3支付真的要走向大众,Gas费这个拦路虎必须死,而Plasma似乎手里正握着那把刀。
#plasma
$XPL
BTC
XPL
Luna月芽
·
--
逃离 EVM 的引力井:在模块化与隐私合规的夹缝中,寻找 Web3 的第二宇宙速度昨晚盯着 IDE 里报错的堆栈信息一直到凌晨三点,窗外的路灯把我的影子拉得很长,这种孤独感在加密世界里并不罕见,尤其是当你意识到所谓的“基础设施繁荣”很大程度上只是资本堆砌出来的海市蜃楼时。最近我一直在强迫自己跳出以太坊 Layer2 的叙事逻辑,试图从第一性原理去重新审视我们正在构建的这座巴别塔。所有人都在谈论 TPS,谈论 Gas 费用的降低,谈论生态的 TVL,但在我看来,这些指标更像是 Web2 时代的 KPI,我们似乎在为了迎合市场的短期胃口,而牺牲了区块链最核心的工程美学与抗审查特性。这种感觉在测试了几条热门的 EVM 兼容链后变得尤为强烈,那种为了兼容而兼容的笨重感,就像是给一辆马车强行装上了法拉利的引擎,虽然跑得快了,但车架子随时可能散架。 让我们把时针拨回到 UTXO 模型与账户模型分道扬镳的那个路口。现在的开发者被以太坊惯坏了,习惯了全局状态(Global State)带来的编程便利性,一个合约调用另一个合约,状态瞬间改变,原子性得到了完美的满足。但这种便利是有代价的,而且是极其昂贵的代价——状态爆炸(State Bloat)。我最近在同步一个以太坊全节点,硬盘的尖叫声仿佛在嘲笑我的天真,数据量的指数级增长让去中心化验证变成了一种只有数据中心才能玩得起的游戏。这时候,@Plasma 的设计哲学就显得格外迷人,甚至带有一种反直觉的优雅。它不是在试图扩大主网的管道,而是在试图把计算“赶出去”。看着 Plasma 的树状结构,我总是会想起以前学数据结构时对 Merkle Tree 的那种敬畏,它不仅仅是一种压缩数据的手段,更是一种权力的下放。在 Plasma 的构想里,只有 Merkle Root 是需要全网共识的,其他的交易细节,那是子链自己的事,这种“只在争议发生时才仲裁”的乐观主义,其实比现在的 Rollup 更加符合商业社会的运行逻辑——你不需要每天都带着律师去买咖啡,只有在咖啡里喝出苍蝇时才需要法律介入。 然而,单纯的扩容并不是终局,真正让我感到焦虑的是我们在隐私合规上的裸奔。现在的公链环境就像是一个巨大的、透明的玻璃房,我们在里面不仅是在交易,更是在进行一场毫无保留的裸体表演。每一次转账,每一个合约交互,都被链上侦探工具分析得底裤都不剩。前几天我在研究 Dusk 的架构文档时,被他们对于“可审计隐私”的执着给触动了。这不仅仅是技术选型的问题,这是一种价值观的博弈。在 RegDeFi(合规去中心化金融)的语境下,隐私不再是黑客和洗钱者的遮羞布,而是机构入场的入场券。Dusk 选择不走 EVM 兼容的捷径,而是从头构建 Rusk VM,这种“硬核”的决定在现在的浮躁市场里简直就是异类。Rusk 利用零知识证明(ZK)在不泄露具体交易金额和双方身份的前提下,证明交易的合法性,这让我想起了那个经典的“百万富翁问题”,但这里解决的不仅是谁更有钱,而是如何在不暴露底牌的情况下完成价值交换。 这种架构上的洁癖在 Piecrust 虚拟机的设计上体现得淋漓尽致。为了追求极致的零拷贝(Zero-Copy)性能,他们甚至重新定义了内存处理的方式。对比之下,很多所谓的“高性能公链”还在用着魔改版的 Geth,通过牺牲去中心化程度来换取那一点点可怜的 TPS 提升。我在测试 Piecrust 时,那种代码执行的确定性让我找回了写 Rust 时的安全感。说到 Rust,这真的是区块链开发的上帝馈赠,所有权模型(Ownership Model)在编译阶段就扼杀了大部分内存安全漏洞,这对于金融系统来说是无价的。而 Solidity,恕我直言,它更像是一个充满陷阱的游乐场,稍有不慎就会因为重入攻击(Reentrancy Attack)而倾家荡产。现在的 Layer2 都在搞 Stack,搞一键发链,但如果底层的执行环境依然是那个脆弱的 EVM,我们只不过是在复制一个个充满漏洞的平行宇宙罢了。 再深挖一下,关于“最终性”(Finality)的讨论往往被大家忽略。在支付场景下,用户需要的不仅仅是快,而是“不可撤销”的确信。Plasma 的各种变体,以及 Dusk 的 SBA 共识机制,其实都在试图解决这个问题。SBA 通过分层抽签和零知识证明来隐藏参与共识的节点身份,这不仅提高了效率,更重要的是防止了定向攻击。想象一下,如果黑客不知道下一个验证者是谁,他就无法发动 DDoS 攻击,这种隐身属性是构建金融级基础设施的必要条件。而我们现在的很多 PoS 链,验证者列表是公开的,简直就是把靶子画在自己脑门上。 有时候我在想,为什么我们对 ZK 的理解如此狭隘?大多数人只把它当作 Layer2 扩容的压缩工具,也就是 ZK-Rollup,却忽略了它在隐私计算和逻辑验证上的潜力。真正的 ZK-VM 应该是一个黑盒,外界只能看到输入和输出的正确性证明,而看不到内部的计算逻辑。这才是连接 Web2 传统金融和 Web3 狂野西部的桥梁。现在的 RWA(现实世界资产)赛道之所以雷声大雨点小,根本原因就在于没有解决“数据上链后的隐私与合规”这个悖论。机构不可能把客户的资产数据扔到以太坊这个“广场”上示众,他们需要的是一个既能验证资产真实性,又能保护商业机密的暗池(Dark Pool),而这正是基于 ZK 的合规隐私层所能提供的。 在对比了几款竞品后,我发现市场存在一种严重的“叙事疲劳”。大家都在讲模块化,讲 DA 层,讲结算层,看似专业分工,实则是在割裂流动性和安全性。如果我的一笔交易,安全性依赖于以太坊,数据可用性依赖于 Celestia,执行依赖于某个 Rollup,排序依赖于一个中心化的 Sequencer,这中间任何一个环节掉链子,我的资产就可能万劫不复。相比之下,那些试图在单一协议层内解决“隐私+扩容+合规”不可能三角的项目,虽然开发周期漫长,如同在岩石上雕花,但一旦建成,其壁垒将是不可逾越的。我不喜欢那种“打补丁”式的工程思维,今天出了问题就在上面再架一层,层层叠叠,最后变成了一个摇摇欲坠的积木塔。 回归到技术本身,我最近对 UTXO 模型的“并发之美”着了迷。在账户模型下,为了防止双花,必须串行处理交易,这直接锁死了性能上限。而在 UTXO 模型下,只要没有状态冲突,交易可以像流水一样并行处理。Plasma 和一些新一代隐私公链重拾 UTXO,绝不是历史的倒退,而是对高并发场景的深刻洞察。配合上客户端验证(Client-Side Validation),我们可以把大量的计算负荷从链上转移到用户的设备上,链只负责最简单的验证,这才是 Web3 真正能够承载亿级用户的形态。而不是像现在这样,为了抢一个热门 NFT,全网几万个节点都在重复计算同一段逻辑,这种对算力的浪费简直是对热力学第二定律的侮辱。 当然,这种深度的架构创新注定是孤独的。在这个 meme 币横飞,大家只关心“拉盘即正义”的时代,沉下心来打磨底层 VM,去死磕零知识证明电路优化的团队,显得格格不入。但我坚信,潮水退去后,留下的不会是那些只有 PPT 和空投预期的项目,而是那些真正解决了“信任成本”和“隐私边界”问题的代码库。看着屏幕上编译成功的提示,我突然有种莫名的感动,这不仅仅是一行行代码,这是我们在数字极权时代,为自己保留的一扇后门,一把钥匙。 这几天我也在反思,我们是不是对“中心化”太过于妖魔化,或者太过于宽容了?现在的 Layer2 排序器(Sequencer)基本上都是中心化的,我们被迫信任项目方不会作恶,这其实是一种倒退。而真正的去中心化,应该是像数学公式一样,不依赖于任何人的道德水准。通过密码学手段(如 ZK 证明)来约束中心化实体的行为,也就是所谓的“Don't be evil, can't be evil”,这可能是一条更务实的路径。Dusk 提出的“RegDeFi”其实就在尝试这种平衡,引入监管节点但限制其权限,让合规成为代码的一部分,而不是外在的枷锁。 写到最后,我想说的是,技术的演进往往不是线性的,而是螺旋上升的。我们抛弃了 UTXO 拥抱了账户模型,现在又在更高维度上通过 ZK 和 Plasma 回归 UTXO;我们为了透明抛弃了隐私,现在又为了合规必须重拾隐私。这一切的折腾,都不是无用功,而是在探索区块链作为“价值互联网”的边界。在这个过程中,少一点傲慢,多一点对底层逻辑的敬畏,或许我们才能真正走出这个为了炒作而构建的“玻璃房”,走进那个既有隐私保护,又有数学确权的广阔荒原。这篇文字没有任何投资建议,纯粹是一个代码写多了的工程尸在深夜的胡言乱语,如果你看懂了,说明我们大概是同类人,在这个充满噪音的世界里,还在试图聆听信号的声音。#plasma $XPL
逃离 EVM 的引力井:在模块化与隐私合规的夹缝中,寻找 Web3 的第二宇宙速度
昨晚盯着 IDE 里报错的堆栈信息一直到凌晨三点,窗外的路灯把我的影子拉得很长,这种孤独感在加密世界里并不罕见,尤其是当你意识到所谓的“基础设施繁荣”很大程度上只是资本堆砌出来的海市蜃楼时。最近我一直在强迫自己跳出以太坊 Layer2 的叙事逻辑,试图从第一性原理去重新审视我们正在构建的这座巴别塔。所有人都在谈论 TPS,谈论 Gas 费用的降低,谈论生态的 TVL,但在我看来,这些指标更像是 Web2 时代的 KPI,我们似乎在为了迎合市场的短期胃口,而牺牲了区块链最核心的工程美学与抗审查特性。这种感觉在测试了几条热门的 EVM 兼容链后变得尤为强烈,那种为了兼容而兼容的笨重感,就像是给一辆马车强行装上了法拉利的引擎,虽然跑得快了,但车架子随时可能散架。
让我们把时针拨回到 UTXO 模型与账户模型分道扬镳的那个路口。现在的开发者被以太坊惯坏了,习惯了全局状态(Global State)带来的编程便利性,一个合约调用另一个合约,状态瞬间改变,原子性得到了完美的满足。但这种便利是有代价的,而且是极其昂贵的代价——状态爆炸(State Bloat)。我最近在同步一个以太坊全节点,硬盘的尖叫声仿佛在嘲笑我的天真,数据量的指数级增长让去中心化验证变成了一种只有数据中心才能玩得起的游戏。这时候,
@Plasma
的设计哲学就显得格外迷人,甚至带有一种反直觉的优雅。它不是在试图扩大主网的管道,而是在试图把计算“赶出去”。看着 Plasma 的树状结构,我总是会想起以前学数据结构时对 Merkle Tree 的那种敬畏,它不仅仅是一种压缩数据的手段,更是一种权力的下放。在 Plasma 的构想里,只有 Merkle Root 是需要全网共识的,其他的交易细节,那是子链自己的事,这种“只在争议发生时才仲裁”的乐观主义,其实比现在的 Rollup 更加符合商业社会的运行逻辑——你不需要每天都带着律师去买咖啡,只有在咖啡里喝出苍蝇时才需要法律介入。
然而,单纯的扩容并不是终局,真正让我感到焦虑的是我们在隐私合规上的裸奔。现在的公链环境就像是一个巨大的、透明的玻璃房,我们在里面不仅是在交易,更是在进行一场毫无保留的裸体表演。每一次转账,每一个合约交互,都被链上侦探工具分析得底裤都不剩。前几天我在研究 Dusk 的架构文档时,被他们对于“可审计隐私”的执着给触动了。这不仅仅是技术选型的问题,这是一种价值观的博弈。在 RegDeFi(合规去中心化金融)的语境下,隐私不再是黑客和洗钱者的遮羞布,而是机构入场的入场券。Dusk 选择不走 EVM 兼容的捷径,而是从头构建 Rusk VM,这种“硬核”的决定在现在的浮躁市场里简直就是异类。Rusk 利用零知识证明(ZK)在不泄露具体交易金额和双方身份的前提下,证明交易的合法性,这让我想起了那个经典的“百万富翁问题”,但这里解决的不仅是谁更有钱,而是如何在不暴露底牌的情况下完成价值交换。
这种架构上的洁癖在 Piecrust 虚拟机的设计上体现得淋漓尽致。为了追求极致的零拷贝(Zero-Copy)性能,他们甚至重新定义了内存处理的方式。对比之下,很多所谓的“高性能公链”还在用着魔改版的 Geth,通过牺牲去中心化程度来换取那一点点可怜的 TPS 提升。我在测试 Piecrust 时,那种代码执行的确定性让我找回了写 Rust 时的安全感。说到 Rust,这真的是区块链开发的上帝馈赠,所有权模型(Ownership Model)在编译阶段就扼杀了大部分内存安全漏洞,这对于金融系统来说是无价的。而 Solidity,恕我直言,它更像是一个充满陷阱的游乐场,稍有不慎就会因为重入攻击(Reentrancy Attack)而倾家荡产。现在的 Layer2 都在搞 Stack,搞一键发链,但如果底层的执行环境依然是那个脆弱的 EVM,我们只不过是在复制一个个充满漏洞的平行宇宙罢了。
再深挖一下,关于“最终性”(Finality)的讨论往往被大家忽略。在支付场景下,用户需要的不仅仅是快,而是“不可撤销”的确信。Plasma 的各种变体,以及 Dusk 的 SBA 共识机制,其实都在试图解决这个问题。SBA 通过分层抽签和零知识证明来隐藏参与共识的节点身份,这不仅提高了效率,更重要的是防止了定向攻击。想象一下,如果黑客不知道下一个验证者是谁,他就无法发动 DDoS 攻击,这种隐身属性是构建金融级基础设施的必要条件。而我们现在的很多 PoS 链,验证者列表是公开的,简直就是把靶子画在自己脑门上。
有时候我在想,为什么我们对 ZK 的理解如此狭隘?大多数人只把它当作 Layer2 扩容的压缩工具,也就是 ZK-Rollup,却忽略了它在隐私计算和逻辑验证上的潜力。真正的 ZK-VM 应该是一个黑盒,外界只能看到输入和输出的正确性证明,而看不到内部的计算逻辑。这才是连接 Web2 传统金融和 Web3 狂野西部的桥梁。现在的 RWA(现实世界资产)赛道之所以雷声大雨点小,根本原因就在于没有解决“数据上链后的隐私与合规”这个悖论。机构不可能把客户的资产数据扔到以太坊这个“广场”上示众,他们需要的是一个既能验证资产真实性,又能保护商业机密的暗池(Dark Pool),而这正是基于 ZK 的合规隐私层所能提供的。
在对比了几款竞品后,我发现市场存在一种严重的“叙事疲劳”。大家都在讲模块化,讲 DA 层,讲结算层,看似专业分工,实则是在割裂流动性和安全性。如果我的一笔交易,安全性依赖于以太坊,数据可用性依赖于 Celestia,执行依赖于某个 Rollup,排序依赖于一个中心化的 Sequencer,这中间任何一个环节掉链子,我的资产就可能万劫不复。相比之下,那些试图在单一协议层内解决“隐私+扩容+合规”不可能三角的项目,虽然开发周期漫长,如同在岩石上雕花,但一旦建成,其壁垒将是不可逾越的。我不喜欢那种“打补丁”式的工程思维,今天出了问题就在上面再架一层,层层叠叠,最后变成了一个摇摇欲坠的积木塔。
回归到技术本身,我最近对 UTXO 模型的“并发之美”着了迷。在账户模型下,为了防止双花,必须串行处理交易,这直接锁死了性能上限。而在 UTXO 模型下,只要没有状态冲突,交易可以像流水一样并行处理。Plasma 和一些新一代隐私公链重拾 UTXO,绝不是历史的倒退,而是对高并发场景的深刻洞察。配合上客户端验证(Client-Side Validation),我们可以把大量的计算负荷从链上转移到用户的设备上,链只负责最简单的验证,这才是 Web3 真正能够承载亿级用户的形态。而不是像现在这样,为了抢一个热门 NFT,全网几万个节点都在重复计算同一段逻辑,这种对算力的浪费简直是对热力学第二定律的侮辱。
当然,这种深度的架构创新注定是孤独的。在这个 meme 币横飞,大家只关心“拉盘即正义”的时代,沉下心来打磨底层 VM,去死磕零知识证明电路优化的团队,显得格格不入。但我坚信,潮水退去后,留下的不会是那些只有 PPT 和空投预期的项目,而是那些真正解决了“信任成本”和“隐私边界”问题的代码库。看着屏幕上编译成功的提示,我突然有种莫名的感动,这不仅仅是一行行代码,这是我们在数字极权时代,为自己保留的一扇后门,一把钥匙。
这几天我也在反思,我们是不是对“中心化”太过于妖魔化,或者太过于宽容了?现在的 Layer2 排序器(Sequencer)基本上都是中心化的,我们被迫信任项目方不会作恶,这其实是一种倒退。而真正的去中心化,应该是像数学公式一样,不依赖于任何人的道德水准。通过密码学手段(如 ZK 证明)来约束中心化实体的行为,也就是所谓的“Don't be evil, can't be evil”,这可能是一条更务实的路径。Dusk 提出的“RegDeFi”其实就在尝试这种平衡,引入监管节点但限制其权限,让合规成为代码的一部分,而不是外在的枷锁。
写到最后,我想说的是,技术的演进往往不是线性的,而是螺旋上升的。我们抛弃了 UTXO 拥抱了账户模型,现在又在更高维度上通过 ZK 和 Plasma 回归 UTXO;我们为了透明抛弃了隐私,现在又为了合规必须重拾隐私。这一切的折腾,都不是无用功,而是在探索区块链作为“价值互联网”的边界。在这个过程中,少一点傲慢,多一点对底层逻辑的敬畏,或许我们才能真正走出这个为了炒作而构建的“玻璃房”,走进那个既有隐私保护,又有数学确权的广阔荒原。这篇文字没有任何投资建议,纯粹是一个代码写多了的工程尸在深夜的胡言乱语,如果你看懂了,说明我们大概是同类人,在这个充满噪音的世界里,还在试图聆听信号的声音。
#plasma
$XPL
XPL
Luna月芽
·
--
盯着RWA赛道的几个所谓龙头复盘了好几天,越看越觉得逻辑没闭环。大家都在喊着要把万亿美金带入加密世界,但看看现在的公链环境,完全就是个四面透风的玻璃房。哪家华尔街机构敢把自家的底牌和交易策略赤裸裸地挂在Etherscan上被人围观?这就好比你在闹市区裸奔,还得硬着头皮跟路人解释这是“去中心化透明”。之前也深度体验过几个主打合规的Layer 2竞品,说实话,大多是在应用层生硬地挂个白名单合约,这种“打补丁”的方式既笨重又极其反人性,操作繁琐得让人想砸键盘。 回头再琢磨@Dusk_Foundation 的文档,不得不承认他们把合规层(Compliance Layer)直接嵌进Layer 1的思路才是正解。这就像是把隐私保护做成了基础设施的水电煤,而不是还得自己去买发电机的外挂插件。这几天跑测试网的时候特意留意了下Piecrust虚拟机的表现,它处理ZK证明的效率确实比我想象中要快。最让我觉得有点意思的是,这种架构下,我既能向监管证明资金来源干净,又不用向全网广播“我是谁”。这种只验证不披露的“最小特权原则”,恰恰是现在很多隐私币没搞明白的生存之道。现在的隐私赛道要么彻底黑盒等着被SEC锤死,要么完全透明被机构嫌弃,Dusk这波RegDeFi的叙事算是精准切中了痛点。 当然,技术吹得再天花乱坠,落地慢也是事实。现在的测试网虽然看着还行,但主网上线后能不能在高并发下扛住ZK计算的压力,还得打个大大的问号。而且咱们实活实说,市场对这种硬核基础设施的耐性是有限的,毕竟隔壁土狗满天飞,这边还在死磕底层代码,看着确实让人捉急。但反过想,真正的壁垒从来不是靠PPT喊出来的。如果未来链上金融真想接轨传统法币世界,这种既能应付审计大棒又能保护商业机密的Layer 1,大概率是绕不开的路。#dusk $DUSK
盯着RWA赛道的几个所谓龙头复盘了好几天,越看越觉得逻辑没闭环。大家都在喊着要把万亿美金带入加密世界,但看看现在的公链环境,完全就是个四面透风的玻璃房。哪家华尔街机构敢把自家的底牌和交易策略赤裸裸地挂在Etherscan上被人围观?这就好比你在闹市区裸奔,还得硬着头皮跟路人解释这是“去中心化透明”。之前也深度体验过几个主打合规的Layer 2竞品,说实话,大多是在应用层生硬地挂个白名单合约,这种“打补丁”的方式既笨重又极其反人性,操作繁琐得让人想砸键盘。
回头再琢磨
@Dusk
的文档,不得不承认他们把合规层(Compliance Layer)直接嵌进Layer 1的思路才是正解。这就像是把隐私保护做成了基础设施的水电煤,而不是还得自己去买发电机的外挂插件。这几天跑测试网的时候特意留意了下Piecrust虚拟机的表现,它处理ZK证明的效率确实比我想象中要快。最让我觉得有点意思的是,这种架构下,我既能向监管证明资金来源干净,又不用向全网广播“我是谁”。这种只验证不披露的“最小特权原则”,恰恰是现在很多隐私币没搞明白的生存之道。现在的隐私赛道要么彻底黑盒等着被SEC锤死,要么完全透明被机构嫌弃,Dusk这波RegDeFi的叙事算是精准切中了痛点。
当然,技术吹得再天花乱坠,落地慢也是事实。现在的测试网虽然看着还行,但主网上线后能不能在高并发下扛住ZK计算的压力,还得打个大大的问号。而且咱们实活实说,市场对这种硬核基础设施的耐性是有限的,毕竟隔壁土狗满天飞,这边还在死磕底层代码,看着确实让人捉急。但反过想,真正的壁垒从来不是靠PPT喊出来的。如果未来链上金融真想接轨传统法币世界,这种既能应付审计大棒又能保护商业机密的Layer 1,大概率是绕不开的路。
#dusk
$DUSK
DUSK
Luna月芽
·
--
撕开 Layer2 的遮羞布:在状态爆炸的前夜,重读 Plasma 与 UTXO 的极客美学这几天盯着屏幕上不断跳动的 Gas 数值,我又陷入了那种熟悉的、近乎虚无的疲惫感,这种感觉并不来自于资产净值的波动,而是源于一种技术信仰的崩塌,看着满屏的 Layer2 战报,所有人都在欢呼 TPS 破万,都在庆祝又一个百亿估值的独角兽诞生,但我看到的却是一座座建立在流沙之上的巴别塔,我们似乎正在为了所谓的叙事正确而放弃工程上的诚实。当我试图在一堆号称高性能的 Rollup 链之间跨链转移资产时,那种割裂感简直让人窒息,还要忍受长达七天的欺诈证明窗口期,这哪里是通往未来的高速公路,分明是人为设置的收费站迷宫。 回想起当年研读比特币白皮书时的震撼,那种点对点电子现金系统的优雅,至今仍让我心潮澎湃,中本聪设计的 UTXO 模型简直就是天才般的直觉,每一笔交易都是独立的,验证一笔交易只需要追溯它的输入,这种无状态的轻盈感才是区块链该有的样子。反观现在的以太坊以及它那一众 Layer2 徒子徒孙,全都被账户模型这个巨大的包袱压得喘不过气来,账户模型确实方便了智能合约的编写,让开发者可以像写 Web2 代码一样处理全局状态,但这也正是灾难的根源,因为全局状态意味着任何一笔交易的执行都必须依赖于对当前整个世界状态的读取,这就好比你要在超市买瓶水,却必须先确认全世界所有人的银行账户余额都没有出错一样荒谬。 最近我重新翻阅了@Plasma 的技术文档,这种早期的扩容方案虽然在几年前因为数据可用性问题而被冷落,但现在看来,它所蕴含的极客美学依然吊打现在的 Rollup。现在的 Rollup 无论是 Optimistic 还是 ZK,本质上都是在把以太坊主网当成一个巨大的垃圾场,拼命往里面塞数据,以此来换取安全性的继承,这种做法看似聪明,实则是对主网资源的极大浪费,更是对去中心化精神的背离。而 Plasma 的设计哲学则完全不同,它试图构建一种树状的层级结构,只有在发生争议时才需要主网介入,平时所有的交易都在子链上发生,这种 只在必要时上链 的理念,才是真正的扩容之道。 这就不得不提到现在的热点项目,那些所谓的模块化区块链,把执行层、数据可用性层、结算层拆得七零八落,看似实现了专业分工,实则是在制造新的信任假设。我们看到像 Celestia 这样的 DA 层项目备受追捧,但我总是忍不住想问,如果 Layer2 的安全性最终要依赖于一个外部的 DA 层,那它和侧链又有什么本质区别。这种为了模块化而模块化的做法,更像是一种资本的游戏,而不是技术的进步。相比之下,Plasma 的设计就显得格外的 淳朴 ,它不需要引入额外的信任假设,它相信密码学的力量,相信梅克尔树的数学之美。 再来看看现在的 EVM 兼容性竞赛,所有的 Layer1 和 Layer2 都在拼命宣称自己完美兼容 EVM,好像只要兼容了 EVM 就能继承以太坊的生态红利,这种 拿来主义 导致了整个行业的同质化竞争极其严重,大家都在比谁的 EVM 跑得快,谁的 Gas 费更低,却很少有人停下来思考,EVM 真的是终极形态吗。EVM 的串行执行机制注定了它无法充分利用现代硬件的多核性能,而它的状态存储机制更是导致了状态爆炸的罪魁祸首。我想起前几天在某个技术论坛上看到有人讨论并行 EVM,比如 Monad 和 Sei 这样的项目,它们试图通过并行执行来提升性能,这固然是一种进步,但如果底层的账户模型不改变,状态爆炸的问题依然无法从根本上解决。 这时候我就特别怀念 UTXO 模型,在 UTXO 模型下,状态是分散的,每个人只关心与自己相关的 UTXO,这天然就适合并行处理。Plasma 基于 UTXO 的设计,让用户可以真正拥有自己的数据,而不是像在账户模型下那样,数据只是全局状态树上的一个叶子节点。在 Plasma 的世界里,如果运营商作恶,我可以拿着我的 UTXO 及其包含的梅克尔证明,安全地退出子链,回到主网,这种 退出机制 赋予了用户至高无上的权力,它是对抗中心化强权的终极武器。而现在的 Rollup 用户,如果排序器审查你的交易,或者直接宕机,你除了在推特上骂娘,几乎没有任何反制手段,所谓的强制提款操作复杂到绝大多数用户根本无法完成。 甚至可以说现在的 Layer2 生态已经演变成了一种新型的封建割据,每个 Layer2 都是一个独立的领地,领主们通过发行治理代币来收割韭菜,通过空投预期来绑架用户,而真正的互操作性却遥遥无期。我在使用某个著名的 ZK-Rollup 时,惊讶地发现它的证明生成成本竟然如此之高,以至于项目方不得不通过中心化的方式来补贴 Prover,这简直就是一种不可持续的经济模型。一旦补贴停止,高昂的证明费用将直接转嫁给用户,到时候所谓的低 Gas 费优势将荡然无存。反观 Plasma,由于其计算都在链下进行,链上只需要提交极少的数据,其扩容潜力理论上是无限的,而且随着 ZK 技术的成熟,我们完全可以用 ZK 来增强 Plasma 的安全性,解决当年困扰它的数据扣留攻击问题,这就是所谓的 ZK-Plasma,一个被严重低估的技术方向。 我最近在研究一些基于 Rust 语言编写的新公链,不得不感叹 Rust 的所有权模型与 UTXO 简直是天作之合,它在编译阶段就杜绝了内存安全问题,这对于金融级应用来说太重要了。现在的 Solidity 智能合约动不动就爆出黑客攻击事件,很大程度上是因为 Solidity 这种语言太过于灵活,缺乏必要的约束,而 EVM 的设计又太过于底层,对开发者极不友好。如果我们能把 UTXO 的资产安全模型与 ZK 的隐私保护能力结合起来,再加上类似 Plasma 的分层扩容架构,那才是 Web3 该有的终局。 有些时候写代码写累了,我会盯着屏幕上的哈希值发呆,思考这些看似枯燥的数字背后所代表的意义。区块链不应该只是炒作的工具,不应该只是资本的赌场,它应该是一场关于信任的革命。当我们把所有的信任都交给中心化的排序器,交给多签钱包控制的合约升级权限时,我们其实已经输了。真正的去中心化,是不需要相信任何人,只需要相信代码,相信数学。Plasma 的回退机制虽然在大规模退出时会造成主网拥堵,但它提供了一种最底层的安全保障,那就是无论发生什么,我的钱始终是我的钱,谁也拿不走,这种安全感是现在的 Optimistic Rollup 给不了的,它们太依赖于 挑战期 内必须有人发起挑战这一假设,万一真的没有人挑战呢,万一验证者被贿赂了呢。 在深夜里审视现在的扩容赛道,我看到的是一片浮躁,大家都在忙着发币,忙着搞生态激励,却很少有人愿意沉下心来打磨底层的技术细节。我们不仅需要更高的 TPS,更需要更强的抗审查性,更彻底的去中心化。以太坊转 PoS 之后,虽然变得更加环保了,但也确实变得更加 中心话 了,大量的质押份额集中在几个大节点手中,这让我感到不安。Layer2 本应是解决这些问题的方案,但现在看来,它们更像是问题的延伸。我甚至悲观地认为,如果 Layer2 不能解决中心化排序器的问题,不能解决状态爆炸的问题,那么未来的区块链世界可能会退化成几个巨头控制的联盟链。 当然技术的发展总是螺旋式上升的,当年的 Plasma 也许确实太超前了,它的用户体验确实不如现在的 Rollup 丝滑,比如那个该死的挑战期,比如对用户在线的要求。但这些问题并非不可解决,随着客户端验证技术的发展,随着零知识证明生成速度的提升,我们完全有能力构建出一个既安全又高效,既去中心化又体验良好的新一代 Plasma。想象一下,一个基于 UTXO 模型的,支持隐私保护的,拥有无限扩容能力的执行层,它不依赖于繁重的全局状态,它可以跑在手机上,跑在浏览器里,甚至是跑在物联网设备上,这才是万物互联的基础,这才是元宇宙的基石。 现在的我更愿意去关注那些在角落里默默耕耘的极客项目,它们没有华丽的官网,没有大牌 VC 的背书,甚至连白皮书都写得晦涩难懂,但它们的代码库里却闪烁着智慧的光芒。比如有些团队正在尝试用 ZK-STARKs 来压缩交易历史,试图实现真正的 全节点轻量化 ,这才是直击痛点的创新。而不是像某些项目那样,fork 一下代码,改改参数,就号称是下一代高性能公链。在这个充满了复制粘贴和 meme 狂欢的行业里,保持独立的思考能力比什么都重要,不要被那些高大上的名词吓倒,不要被那些眼花缭乱的 APY 迷惑,回归常识,回归代码,你会发现真相往往就隐藏在那些看似不起眼的细节里。 前几天和一个做量化交易的朋友聊天,他吐槽现在的 DeFi 协议看似去中心化,实则插满了后门,项目方随时可以暂停合约,随时可以修改参数,这让他这个习惯了在 刀尖上舔血 的老韭菜都感到心慌。这让我更加坚定了对不可变性 immutable 的追求,一个真正的去中心化应用,一旦部署,就应该像发射出去的卫星一样,按照既定的轨道运行,无人能够干预。Plasma 的架构在某种程度上就是这种不可变性的体现,它把规则写死在合约里,把权力交还给用户。 我知道写这些东西可能会得罪不少人,毕竟现在的 Layer2 赛道利益捆绑太深了,但我实在是不吐不快。看着那些明明是中心化服务器跑出来的 TPS 数据被吹上天,看着那些明明存在重大安全隐患的桥接方案被广泛使用,我感到一种深深的无力感。也许在这个行业里,讲实话的人注定是孤独的,但我相信,时间会证明一切,潮水退去之后,谁在裸泳一目了然。 这种对于技术纯粹性的执念,可能在很多人眼里是幼稚的,是不懂商业逻辑的表现。他们会说,用户不在乎去中心化,用户只在乎体验,只在乎赚钱。也许他们是对的,但我始终认为,如果区块链不能提供区别于 Web2 的核心价值,也就是无需许可的信任,那它就毫无意义。我们不需要另一个支付宝,不需要另一个纳斯达克,我们需要的是一个真正自由的,属于每一个人的金融网络。 写到这里窗外的天已经快亮了,屏幕上的代码依然在闪烁,我突然意识到,我们这群人之所以还在这里死磕,不就是因为心里那点未曾熄灭的理想主义火花吗。哪怕现在的环境再糟糕,哪怕技术债堆积如山,我们依然愿意相信,通过代码可以改变世界,可以通过数学构建更公平的秩序。Plasma 也好,Rollup 也罢,都只是通往那个终极目标的中间站,也许未来的某一天,会出现一种全新的架构,彻底融合两者的优点,让我们彻底忘掉扩容这个词,但在那一天到来之前,保持怀疑,保持批判,保持愤怒,也许是我们唯一能做的事情。 我想起昨晚做的那个梦,梦见所有的 Layer2 都崩塌了,只剩下比特币和以太坊的主网还在顽强地出块,那时候大家才终于想起来,原来我们走得太快,把灵魂落在了后面。这次的技术复盘不为了别的,就为了提醒自己,在追逐热点的同时,别忘了脚下的路是不是实的,别忘了我们出发时的初心。这可能是一篇不合时宜的文章,在这个充满了 FOMO 情绪的市场里显得格格不入,但如果你能读到这里,说明你也是个在寻找真相的人。#dusk $DUSK
撕开 Layer2 的遮羞布:在状态爆炸的前夜,重读 Plasma 与 UTXO 的极客美学
这几天盯着屏幕上不断跳动的 Gas 数值,我又陷入了那种熟悉的、近乎虚无的疲惫感,这种感觉并不来自于资产净值的波动,而是源于一种技术信仰的崩塌,看着满屏的 Layer2 战报,所有人都在欢呼 TPS 破万,都在庆祝又一个百亿估值的独角兽诞生,但我看到的却是一座座建立在流沙之上的巴别塔,我们似乎正在为了所谓的叙事正确而放弃工程上的诚实。当我试图在一堆号称高性能的 Rollup 链之间跨链转移资产时,那种割裂感简直让人窒息,还要忍受长达七天的欺诈证明窗口期,这哪里是通往未来的高速公路,分明是人为设置的收费站迷宫。
回想起当年研读比特币白皮书时的震撼,那种点对点电子现金系统的优雅,至今仍让我心潮澎湃,中本聪设计的 UTXO 模型简直就是天才般的直觉,每一笔交易都是独立的,验证一笔交易只需要追溯它的输入,这种无状态的轻盈感才是区块链该有的样子。反观现在的以太坊以及它那一众 Layer2 徒子徒孙,全都被账户模型这个巨大的包袱压得喘不过气来,账户模型确实方便了智能合约的编写,让开发者可以像写 Web2 代码一样处理全局状态,但这也正是灾难的根源,因为全局状态意味着任何一笔交易的执行都必须依赖于对当前整个世界状态的读取,这就好比你要在超市买瓶水,却必须先确认全世界所有人的银行账户余额都没有出错一样荒谬。
最近我重新翻阅了
@Plasma
的技术文档,这种早期的扩容方案虽然在几年前因为数据可用性问题而被冷落,但现在看来,它所蕴含的极客美学依然吊打现在的 Rollup。现在的 Rollup 无论是 Optimistic 还是 ZK,本质上都是在把以太坊主网当成一个巨大的垃圾场,拼命往里面塞数据,以此来换取安全性的继承,这种做法看似聪明,实则是对主网资源的极大浪费,更是对去中心化精神的背离。而 Plasma 的设计哲学则完全不同,它试图构建一种树状的层级结构,只有在发生争议时才需要主网介入,平时所有的交易都在子链上发生,这种 只在必要时上链 的理念,才是真正的扩容之道。
这就不得不提到现在的热点项目,那些所谓的模块化区块链,把执行层、数据可用性层、结算层拆得七零八落,看似实现了专业分工,实则是在制造新的信任假设。我们看到像 Celestia 这样的 DA 层项目备受追捧,但我总是忍不住想问,如果 Layer2 的安全性最终要依赖于一个外部的 DA 层,那它和侧链又有什么本质区别。这种为了模块化而模块化的做法,更像是一种资本的游戏,而不是技术的进步。相比之下,Plasma 的设计就显得格外的 淳朴 ,它不需要引入额外的信任假设,它相信密码学的力量,相信梅克尔树的数学之美。
再来看看现在的 EVM 兼容性竞赛,所有的 Layer1 和 Layer2 都在拼命宣称自己完美兼容 EVM,好像只要兼容了 EVM 就能继承以太坊的生态红利,这种 拿来主义 导致了整个行业的同质化竞争极其严重,大家都在比谁的 EVM 跑得快,谁的 Gas 费更低,却很少有人停下来思考,EVM 真的是终极形态吗。EVM 的串行执行机制注定了它无法充分利用现代硬件的多核性能,而它的状态存储机制更是导致了状态爆炸的罪魁祸首。我想起前几天在某个技术论坛上看到有人讨论并行 EVM,比如 Monad 和 Sei 这样的项目,它们试图通过并行执行来提升性能,这固然是一种进步,但如果底层的账户模型不改变,状态爆炸的问题依然无法从根本上解决。
这时候我就特别怀念 UTXO 模型,在 UTXO 模型下,状态是分散的,每个人只关心与自己相关的 UTXO,这天然就适合并行处理。Plasma 基于 UTXO 的设计,让用户可以真正拥有自己的数据,而不是像在账户模型下那样,数据只是全局状态树上的一个叶子节点。在 Plasma 的世界里,如果运营商作恶,我可以拿着我的 UTXO 及其包含的梅克尔证明,安全地退出子链,回到主网,这种 退出机制 赋予了用户至高无上的权力,它是对抗中心化强权的终极武器。而现在的 Rollup 用户,如果排序器审查你的交易,或者直接宕机,你除了在推特上骂娘,几乎没有任何反制手段,所谓的强制提款操作复杂到绝大多数用户根本无法完成。
甚至可以说现在的 Layer2 生态已经演变成了一种新型的封建割据,每个 Layer2 都是一个独立的领地,领主们通过发行治理代币来收割韭菜,通过空投预期来绑架用户,而真正的互操作性却遥遥无期。我在使用某个著名的 ZK-Rollup 时,惊讶地发现它的证明生成成本竟然如此之高,以至于项目方不得不通过中心化的方式来补贴 Prover,这简直就是一种不可持续的经济模型。一旦补贴停止,高昂的证明费用将直接转嫁给用户,到时候所谓的低 Gas 费优势将荡然无存。反观 Plasma,由于其计算都在链下进行,链上只需要提交极少的数据,其扩容潜力理论上是无限的,而且随着 ZK 技术的成熟,我们完全可以用 ZK 来增强 Plasma 的安全性,解决当年困扰它的数据扣留攻击问题,这就是所谓的 ZK-Plasma,一个被严重低估的技术方向。
我最近在研究一些基于 Rust 语言编写的新公链,不得不感叹 Rust 的所有权模型与 UTXO 简直是天作之合,它在编译阶段就杜绝了内存安全问题,这对于金融级应用来说太重要了。现在的 Solidity 智能合约动不动就爆出黑客攻击事件,很大程度上是因为 Solidity 这种语言太过于灵活,缺乏必要的约束,而 EVM 的设计又太过于底层,对开发者极不友好。如果我们能把 UTXO 的资产安全模型与 ZK 的隐私保护能力结合起来,再加上类似 Plasma 的分层扩容架构,那才是 Web3 该有的终局。
有些时候写代码写累了,我会盯着屏幕上的哈希值发呆,思考这些看似枯燥的数字背后所代表的意义。区块链不应该只是炒作的工具,不应该只是资本的赌场,它应该是一场关于信任的革命。当我们把所有的信任都交给中心化的排序器,交给多签钱包控制的合约升级权限时,我们其实已经输了。真正的去中心化,是不需要相信任何人,只需要相信代码,相信数学。Plasma 的回退机制虽然在大规模退出时会造成主网拥堵,但它提供了一种最底层的安全保障,那就是无论发生什么,我的钱始终是我的钱,谁也拿不走,这种安全感是现在的 Optimistic Rollup 给不了的,它们太依赖于 挑战期 内必须有人发起挑战这一假设,万一真的没有人挑战呢,万一验证者被贿赂了呢。
在深夜里审视现在的扩容赛道,我看到的是一片浮躁,大家都在忙着发币,忙着搞生态激励,却很少有人愿意沉下心来打磨底层的技术细节。我们不仅需要更高的 TPS,更需要更强的抗审查性,更彻底的去中心化。以太坊转 PoS 之后,虽然变得更加环保了,但也确实变得更加 中心话 了,大量的质押份额集中在几个大节点手中,这让我感到不安。Layer2 本应是解决这些问题的方案,但现在看来,它们更像是问题的延伸。我甚至悲观地认为,如果 Layer2 不能解决中心化排序器的问题,不能解决状态爆炸的问题,那么未来的区块链世界可能会退化成几个巨头控制的联盟链。
当然技术的发展总是螺旋式上升的,当年的 Plasma 也许确实太超前了,它的用户体验确实不如现在的 Rollup 丝滑,比如那个该死的挑战期,比如对用户在线的要求。但这些问题并非不可解决,随着客户端验证技术的发展,随着零知识证明生成速度的提升,我们完全有能力构建出一个既安全又高效,既去中心化又体验良好的新一代 Plasma。想象一下,一个基于 UTXO 模型的,支持隐私保护的,拥有无限扩容能力的执行层,它不依赖于繁重的全局状态,它可以跑在手机上,跑在浏览器里,甚至是跑在物联网设备上,这才是万物互联的基础,这才是元宇宙的基石。
现在的我更愿意去关注那些在角落里默默耕耘的极客项目,它们没有华丽的官网,没有大牌 VC 的背书,甚至连白皮书都写得晦涩难懂,但它们的代码库里却闪烁着智慧的光芒。比如有些团队正在尝试用 ZK-STARKs 来压缩交易历史,试图实现真正的 全节点轻量化 ,这才是直击痛点的创新。而不是像某些项目那样,fork 一下代码,改改参数,就号称是下一代高性能公链。在这个充满了复制粘贴和 meme 狂欢的行业里,保持独立的思考能力比什么都重要,不要被那些高大上的名词吓倒,不要被那些眼花缭乱的 APY 迷惑,回归常识,回归代码,你会发现真相往往就隐藏在那些看似不起眼的细节里。
前几天和一个做量化交易的朋友聊天,他吐槽现在的 DeFi 协议看似去中心化,实则插满了后门,项目方随时可以暂停合约,随时可以修改参数,这让他这个习惯了在 刀尖上舔血 的老韭菜都感到心慌。这让我更加坚定了对不可变性 immutable 的追求,一个真正的去中心化应用,一旦部署,就应该像发射出去的卫星一样,按照既定的轨道运行,无人能够干预。Plasma 的架构在某种程度上就是这种不可变性的体现,它把规则写死在合约里,把权力交还给用户。
我知道写这些东西可能会得罪不少人,毕竟现在的 Layer2 赛道利益捆绑太深了,但我实在是不吐不快。看着那些明明是中心化服务器跑出来的 TPS 数据被吹上天,看着那些明明存在重大安全隐患的桥接方案被广泛使用,我感到一种深深的无力感。也许在这个行业里,讲实话的人注定是孤独的,但我相信,时间会证明一切,潮水退去之后,谁在裸泳一目了然。
这种对于技术纯粹性的执念,可能在很多人眼里是幼稚的,是不懂商业逻辑的表现。他们会说,用户不在乎去中心化,用户只在乎体验,只在乎赚钱。也许他们是对的,但我始终认为,如果区块链不能提供区别于 Web2 的核心价值,也就是无需许可的信任,那它就毫无意义。我们不需要另一个支付宝,不需要另一个纳斯达克,我们需要的是一个真正自由的,属于每一个人的金融网络。
写到这里窗外的天已经快亮了,屏幕上的代码依然在闪烁,我突然意识到,我们这群人之所以还在这里死磕,不就是因为心里那点未曾熄灭的理想主义火花吗。哪怕现在的环境再糟糕,哪怕技术债堆积如山,我们依然愿意相信,通过代码可以改变世界,可以通过数学构建更公平的秩序。Plasma 也好,Rollup 也罢,都只是通往那个终极目标的中间站,也许未来的某一天,会出现一种全新的架构,彻底融合两者的优点,让我们彻底忘掉扩容这个词,但在那一天到来之前,保持怀疑,保持批判,保持愤怒,也许是我们唯一能做的事情。
我想起昨晚做的那个梦,梦见所有的 Layer2 都崩塌了,只剩下比特币和以太坊的主网还在顽强地出块,那时候大家才终于想起来,原来我们走得太快,把灵魂落在了后面。这次的技术复盘不为了别的,就为了提醒自己,在追逐热点的同时,别忘了脚下的路是不是实的,别忘了我们出发时的初心。这可能是一篇不合时宜的文章,在这个充满了 FOMO 情绪的市场里显得格格不入,但如果你能读到这里,说明你也是个在寻找真相的人。
#dusk
$DUSK
DUSK
Luna月芽
·
--
别再拿TPS忽悠人了,深扒完Vanar的架构才发现市面上90%的AI公链都在裸泳 最近为了搞清楚 AI 和 Web3 结合的真实逻辑,我把市面上标榜自己是“AI 公链”的项目白皮书翻了个底朝天,说实话,看得我脑仁疼。绝大多数项目就是给原本的去中心化存储套了个壳,或者单纯在卖算力租赁,这种生硬的拼接就像给马车装个波音引擎,看似热闹实则割裂。直到我啃完 @Vanar 那个关于集成 NVIDIA 技术栈的文档,才觉得有点意思。咱们搞技术的都知道,区块链的本质是牺牲效率换安全,而 AI 模型推理须要的是极致的并发和低延迟,这两玩意儿天生就是互斥的。 那帮还在吹 TPS 的竞品链根本没搞懂真正的瓶劲在哪里。现在的 AI Agent 如果在以太坊或者 Solana 上跑,每一步推理都要付 Gas,这成本模型对于高频交互的机器经济来说完全是灾难。Vanar 这个 TensorRT 优化的思路倒是挺清奇,它不是简单地把数据存下来,而是想直接在链上承载轻量级的推理任务。我看的时候就在想,这野心不小,这是想把“数据库”变成“计算层”啊。相比之下,那些还要把数据跑去 AWS 算完再传回链上的方案,简直弱爆了。 不过有一说一,我也发现了点问题。Vanar 这种深度绑定 Web2 巨头,比如 Google Cloud 的打法,虽然合规性拉满了,但“去中心化”原教旨主义者肯定会喷。但从产业落地的角度看,企业级客户谁在呼你是不是 100% 链上原生?人家要的是 CUDA 的兼容性和跑得动的环境。Neutron 那个语义记忆层的设计也算是个亮典,现在的链上数据太“健忘”了,没有上下文记忆的 AI 只能叫复读机,根本算不上智能代理。 仔细对比下来,Vanar 更像是在给 Web2 的高性能计算和 Web3 的价值网络搭桥。#vanar $VANRY
别再拿TPS忽悠人了,深扒完Vanar的架构才发现市面上90%的AI公链都在裸泳
最近为了搞清楚 AI 和 Web3 结合的真实逻辑,我把市面上标榜自己是“AI 公链”的项目白皮书翻了个底朝天,说实话,看得我脑仁疼。绝大多数项目就是给原本的去中心化存储套了个壳,或者单纯在卖算力租赁,这种生硬的拼接就像给马车装个波音引擎,看似热闹实则割裂。直到我啃完
@Vanarchain
那个关于集成 NVIDIA 技术栈的文档,才觉得有点意思。咱们搞技术的都知道,区块链的本质是牺牲效率换安全,而 AI 模型推理须要的是极致的并发和低延迟,这两玩意儿天生就是互斥的。
那帮还在吹 TPS 的竞品链根本没搞懂真正的瓶劲在哪里。现在的 AI Agent 如果在以太坊或者 Solana 上跑,每一步推理都要付 Gas,这成本模型对于高频交互的机器经济来说完全是灾难。Vanar 这个 TensorRT 优化的思路倒是挺清奇,它不是简单地把数据存下来,而是想直接在链上承载轻量级的推理任务。我看的时候就在想,这野心不小,这是想把“数据库”变成“计算层”啊。相比之下,那些还要把数据跑去 AWS 算完再传回链上的方案,简直弱爆了。
不过有一说一,我也发现了点问题。Vanar 这种深度绑定 Web2 巨头,比如 Google Cloud 的打法,虽然合规性拉满了,但“去中心化”原教旨主义者肯定会喷。但从产业落地的角度看,企业级客户谁在呼你是不是 100% 链上原生?人家要的是 CUDA 的兼容性和跑得动的环境。Neutron 那个语义记忆层的设计也算是个亮典,现在的链上数据太“健忘”了,没有上下文记忆的 AI 只能叫复读机,根本算不上智能代理。
仔细对比下来,Vanar 更像是在给 Web2 的高性能计算和 Web3 的价值网络搭桥。
#vanar
$VANRY
VANRY
Luna月芽
·
--
英伟达的掘墓人可能不是OpenAI,我在Vanar链上看到了去中心化算力的野路子最近DeepSeek把整个硅谷的遮羞布都给扯下来了,大家才恍然大悟,原来在这个所谓的AI元年,我们一直是在给卖铲子的交智商税。看着手里那堆还在按Token计费的API账单,我转头去研究了一下@Vanar 最近的动作,说实话,这种冲击感不亚于第一次看见以太坊智能合约。与其在Web2的封闭花园里给巨头打工,不如看看这边是怎么试图打破算力垄断的,虽然现在的体验还谈不上丝般顺滑,但逻辑上的降维打击已经显现出来了。 绝大多数人对“AI+Blockchain”的理解还停留在发个币蹭热度,或者单纯把JPEG换成生成式图片的初级阶段,这种肤浅的叙事在Vanar的架构面前显得特别苍白。我跑了一遍他们的技术文档和实际交互流程,发现这帮人想解决的根本不是“怎么上链”的问题,而是“怎么确权”。在传统的Web2逻辑里,OpenAI和Google是绝对的黑箱,你喂进去的数据、跑出来的模型,归属权从来都不属于你,我们就像是在租房子的佃农。而Vanar显然是想搞“耕者有其田”,它把AI模型、数据输入和推理过程都试图进行资产化封装。这就好比你以前在网吧打游戏,存档都在网吧服务器里,老板关门你就白练了,现在不仅存档归你,连你练级的过程都能变成一种可验证的资产。 拿Vanar和目前市面上那些所谓的L2竞品做个对比就很有意思。大部分L2还在卷TPS、卷Gas费,这种内卷在AI的大算力吞吐面前毫无意义。我在测试Vanar生态里的应用时感觉到,它更像是一个为高频推理设计的专用环境,而不是一个通用的记账本。Web2的巨头们靠的是堆砌昂贵的H100显卡建立护城河,这种暴力美学虽然有效,但极其中心化且昂贵。Vanar走的野路子是试图通过去中心化的方式来调动闲置算利,虽然目前的响应速度还不能跟中心化服务器硬刚,但在成本控制和抗审查性上,完全是两个维度的生物。这让我想到了当年的BT下载对抗HTTP下载,效率可能不是一开始就最高的,但生命力绝对是最顽强的。 这里面有个很有趣的细节,就是$VANRY在生态里的角色,它不再仅仅是用来支付Gas的燃料,更像是一种算力凭证。你在Google Cloud上跑模型,付的是美金,换来的是一次性的计算结果;在这个链上,你消耗Token换来的是一次可追溯、可验证的推理过程。这种差异乍一看没什么,但如果你是开发者,就会明白这意味着什么。你的Agent不再是一个跑在别人服务器上的幽灵,而是一个在链上拥有独立身份的实体。我看了一些竞品的白皮书,大多还在画饼说什么“AI民主化”,但落地到代码层面全是中心化接口的套壳,这种挂羊头卖狗肉的项目迟早会被市场出清。 当然,整个体验下来也不是没有槽点。目前的开发者工具链相比于Nvidia的CUDA生态简直就是毛坯房和精装房的区别,上手门槛还是有的,而且节点之间的同步有时候会出现肉眼可见的延迟。但这恰恰是机会所在,如果一切都完美了,也就没我们这些早期探索者什么事了。现在的Vanar给我的感觉就像是09年的比特币或者是15年的以太坊,粗糙、硬核,但是充满了一股原始的生命力。它不是在试图改良现有的AI商业模式,而是在试图重新定义生产关系。 在这个算力即权力的时代,我们太习惯于向中心化的神坛顶礼膜拜了。DeepSeek证明了算法优化可以挑战算力霸权,而Vanar这类基础设施则是在告诉我们,算力的组织形式本身也需要一场革命。与其担心AI会不会取代人类,不如担心一下你的AI是不是真正属于你。这波浪潮里,谁能把“去中心化推理”这个故事讲圆了,并且真的跑通闭环,谁就有可能成为下一个周期的王者,而不是那些还在搞盘子和资金盘的妖艳贱货。#vanar $VANRY
英伟达的掘墓人可能不是OpenAI,我在Vanar链上看到了去中心化算力的野路子
最近DeepSeek把整个硅谷的遮羞布都给扯下来了,大家才恍然大悟,原来在这个所谓的AI元年,我们一直是在给卖铲子的交智商税。看着手里那堆还在按Token计费的API账单,我转头去研究了一下
@Vanarchain
最近的动作,说实话,这种冲击感不亚于第一次看见以太坊智能合约。与其在Web2的封闭花园里给巨头打工,不如看看这边是怎么试图打破算力垄断的,虽然现在的体验还谈不上丝般顺滑,但逻辑上的降维打击已经显现出来了。
绝大多数人对“AI+Blockchain”的理解还停留在发个币蹭热度,或者单纯把JPEG换成生成式图片的初级阶段,这种肤浅的叙事在Vanar的架构面前显得特别苍白。我跑了一遍他们的技术文档和实际交互流程,发现这帮人想解决的根本不是“怎么上链”的问题,而是“怎么确权”。在传统的Web2逻辑里,OpenAI和Google是绝对的黑箱,你喂进去的数据、跑出来的模型,归属权从来都不属于你,我们就像是在租房子的佃农。而Vanar显然是想搞“耕者有其田”,它把AI模型、数据输入和推理过程都试图进行资产化封装。这就好比你以前在网吧打游戏,存档都在网吧服务器里,老板关门你就白练了,现在不仅存档归你,连你练级的过程都能变成一种可验证的资产。
拿Vanar和目前市面上那些所谓的L2竞品做个对比就很有意思。大部分L2还在卷TPS、卷Gas费,这种内卷在AI的大算力吞吐面前毫无意义。我在测试Vanar生态里的应用时感觉到,它更像是一个为高频推理设计的专用环境,而不是一个通用的记账本。Web2的巨头们靠的是堆砌昂贵的H100显卡建立护城河,这种暴力美学虽然有效,但极其中心化且昂贵。Vanar走的野路子是试图通过去中心化的方式来调动闲置算利,虽然目前的响应速度还不能跟中心化服务器硬刚,但在成本控制和抗审查性上,完全是两个维度的生物。这让我想到了当年的BT下载对抗HTTP下载,效率可能不是一开始就最高的,但生命力绝对是最顽强的。
这里面有个很有趣的细节,就是
$VANRY
在生态里的角色,它不再仅仅是用来支付Gas的燃料,更像是一种算力凭证。你在Google Cloud上跑模型,付的是美金,换来的是一次性的计算结果;在这个链上,你消耗Token换来的是一次可追溯、可验证的推理过程。这种差异乍一看没什么,但如果你是开发者,就会明白这意味着什么。你的Agent不再是一个跑在别人服务器上的幽灵,而是一个在链上拥有独立身份的实体。我看了一些竞品的白皮书,大多还在画饼说什么“AI民主化”,但落地到代码层面全是中心化接口的套壳,这种挂羊头卖狗肉的项目迟早会被市场出清。
当然,整个体验下来也不是没有槽点。目前的开发者工具链相比于Nvidia的CUDA生态简直就是毛坯房和精装房的区别,上手门槛还是有的,而且节点之间的同步有时候会出现肉眼可见的延迟。但这恰恰是机会所在,如果一切都完美了,也就没我们这些早期探索者什么事了。现在的Vanar给我的感觉就像是09年的比特币或者是15年的以太坊,粗糙、硬核,但是充满了一股原始的生命力。它不是在试图改良现有的AI商业模式,而是在试图重新定义生产关系。
在这个算力即权力的时代,我们太习惯于向中心化的神坛顶礼膜拜了。DeepSeek证明了算法优化可以挑战算力霸权,而Vanar这类基础设施则是在告诉我们,算力的组织形式本身也需要一场革命。与其担心AI会不会取代人类,不如担心一下你的AI是不是真正属于你。这波浪潮里,谁能把“去中心化推理”这个故事讲圆了,并且真的跑通闭环,谁就有可能成为下一个周期的王者,而不是那些还在搞盘子和资金盘的妖艳贱货。
#vanar
$VANRY
VANRY
Luna月芽
·
--
那些躺在亚马逊服务器里的 Web3 梦想该醒了 每当我为 DApp 支付昂贵的云服务器账单时,总会感到一种莫名的讽刺。我们高谈阔论着去中心化的未来,现实却是整个行业的后端依然扎根在 Web2 巨头的土壤里。这种认知失调一直困扰着我,直到我拆解了 @WalrusProtocol 的架构逻辑,才意识到这不仅仅是又一个存储项目,而是一次对区块链世界系统性缺陷的数学修正。 Walrus 彻底摒弃了传统去中心化存储那种简单粗暴的副本堆叠模式。它不再为了安全笨拙地将一份文件复制十次,而是采用了 RaptorQ 纠删码技术。这种机制简直像是一种数字魔法:它将数据粉碎成无数冗余分片,只要网络中保留一小部分碎片,就能完美还原出原始信息。这标志着存储范式的转移,从依赖物理硬件的冗余转向了依赖算法的鲁棒性,真正实现了用算力换空间,用数学保安全。 更让我折服的是它与 Sui 的配合。Walrus 极具智慧地将控制层与存储层进行了彻底解耦。Sui 充当着高速运转的大脑,处理元数据、权限和支付逻辑,而 Walrus 则化身为深邃的数据海洋。这种设计在 Move 语言的加持下,让存储不再是静态的资源,而是变成了可编程、可流转的链上资产。这意味着我们终于有了足够快、足够便宜的基础设施来承载即将到来的去中心化 AI 浪潮,确保人类的知识库不会被锁在科技巨头的孤岛里。这不仅是技术的升级,更是对数据主权的重新夺回。#walrus $WAL
那些躺在亚马逊服务器里的 Web3 梦想该醒了
每当我为 DApp 支付昂贵的云服务器账单时,总会感到一种莫名的讽刺。我们高谈阔论着去中心化的未来,现实却是整个行业的后端依然扎根在 Web2 巨头的土壤里。这种认知失调一直困扰着我,直到我拆解了
@Walrus 🦭/acc
的架构逻辑,才意识到这不仅仅是又一个存储项目,而是一次对区块链世界系统性缺陷的数学修正。
Walrus 彻底摒弃了传统去中心化存储那种简单粗暴的副本堆叠模式。它不再为了安全笨拙地将一份文件复制十次,而是采用了 RaptorQ 纠删码技术。这种机制简直像是一种数字魔法:它将数据粉碎成无数冗余分片,只要网络中保留一小部分碎片,就能完美还原出原始信息。这标志着存储范式的转移,从依赖物理硬件的冗余转向了依赖算法的鲁棒性,真正实现了用算力换空间,用数学保安全。
更让我折服的是它与 Sui 的配合。Walrus 极具智慧地将控制层与存储层进行了彻底解耦。Sui 充当着高速运转的大脑,处理元数据、权限和支付逻辑,而 Walrus 则化身为深邃的数据海洋。这种设计在 Move 语言的加持下,让存储不再是静态的资源,而是变成了可编程、可流转的链上资产。这意味着我们终于有了足够快、足够便宜的基础设施来承载即将到来的去中心化 AI 浪潮,确保人类的知识库不会被锁在科技巨头的孤岛里。这不仅是技术的升级,更是对数据主权的重新夺回。
#walrus
$WAL
SUI
WAL
Luna月芽
·
--
当 Web3 终于不再假装去中心化:Walrus 与数字所有权的最后一块拼图每当我在深夜审视那些曾经红极一时的 NFT 项目,看着它们的官方网站变成无法访问的空白页面,或者发现钱包里珍藏的艺术品缩略图因为源服务器欠费而只显示一个裂开的图标时,一种荒诞感便油然而生。我们身处一个标榜永恒、不可篡改的行业,却依然把这行业最宝贵的资产——数据本身,寄居在最脆弱的中心化基础设施之上。这就像是我们在沙滩上建造了一座纯金的宫殿,宫殿本身虽然坚固无比,但地基却是随时可能被潮水卷走的流沙。这种深层的焦虑促使我将目光投向了 Mysten Labs 最新的 @WalrusProtocol 协议,试图在代码与算法的缝隙中寻找 Web3 存储困境的终极答案。 长期以来,区块链行业陷入了一个巨大的误区,即混淆了共识与存储的边界。我们习惯于把昂贵的链上空间当作硬盘来使用,试图用那些为了保证全球状态强一致性而设计的共识资源,去承载图片、视频和庞大的前端代码。这无异于用运钞车去运输建筑废料,不仅效率极低,而且成本高昂到令人生畏。Walrus 的出现,从架构层面彻底终结了这种混乱。它并没有试图发明一种万能的区块链,而是极具智慧地将数据层从执行层中剥离了出来。在这种新范式下,Sui 这样的高性能公链继续扮演着大脑的角色,负责处理复杂的逻辑、所有权确认和支付结算;而 Walrus 则化身为一个无限扩展的外部海马体,专门负责以极低的成本记忆那些海量的非结构化数据。 深入探究 Walrus 的底层技术,尤其是那个被称为 Red Stuff 的核心算法,你会发现它对传统去中心化存储方案的颠覆是系统性的。过去的存储项目,如 Filecoin,往往依赖于复杂的复制证明,本质上是一种通过堆砌硬件副本对抗丢失风险的人海战术。而 Walrus 引入了基于 RaptorQ 的二维纠删码技术,这是一种充满了数学美感的降维打击。它不再执着于在全网保留完整的数据副本,而是将文件像打碎的全息照片一样切分成无数个编码碎片。这些碎片散落在网络的各个角落,具有一种神奇的自愈能力:只要能收集到任意一部分碎片,哪怕只占总量的极小比例,原始数据就能在瞬间被毫秒级重组。这种基于概率论的鲁棒性,让网络不再依赖于单一节点的诚实或稳定,而是通过数学规律确保了数据的永生。 对于开发者而言,这种架构的变革意味着 DApp 的形态将发生根本性的进化。目前的去中心化应用其实大多是伪去中心化,因为它们的交互界面依然托管在 AWS、Vercel 等中心化云服务上。一旦这些中心化入口被切断,链上的智能合约再安全也变得无人问津。Walrus 带来了一种被称为 Walrus Sites 的全新可能性,它允许开发者将整个前端应用打包存储在去中心化网络中,通过浏览器直接渲染。这意味着未来的应用将不再是一个脆弱的 URL 链接,而是一个坚不可摧的链上资源索引。只要 Walrus 网络还在运转,应用就永远在线,无法被关停,无法被审查。这才是中本聪愿景中那个真正的、无法被拔网线的互联网。 更进一步看,Walrus 的野心或许并不仅限于 Web3,它极有可能是人工智能与区块链结合的关键枢纽。在 AI 时代,数据就是石油,模型就是炼油厂。然而,目前的 AI 生态是高度封闭的,巨头们垄断了数据和模型。如果我们想要构建一个开放的、去中心化的 AI 生态,首先需要解决的就是海量数据的存储问题。昂贵的以太坊存不下 AI 的训练集,缓慢的 IPFS 跑不动模型的实时推理。Walrus 这种高吞吐、低延迟、且具备所有权属性的存储网络,天生就是去中心化 AI 的数据湖。它让训练数据可以被确权,让模型权重可以被追溯,让每一次推理的价值流转都清晰可见。 在这个充斥着投机泡沫和短期炒作的市场里,静下心来打磨像 Walrus 这样底层基础设施的人显得格格不入。但这恰恰是它的价值所在。因为它解决的不是如何让资产价格翻倍的问题,而是如何让资产背后的意义得以存续的问题。当我们在谈论 Web3 的大规模落地时,我们需要的不是更多绚丽的金融模型,而是像水和电一样廉价、稳定且不可感知的基础设施。Walrus 正在做的,就是把去中心化存储从一个昂贵的概念,变成一种如同呼吸般自然的默认选项。如果不解决数据主权和存储成本的问题,Web3 永远只是少数人的金融游戏;而有了 Walrus,我们或许终于可以开始构建那个真正属于用户、永不消逝的数字世界。这不仅仅是技术的胜利,更是对互联网初心的回归。#walrus $WAL
当 Web3 终于不再假装去中心化:Walrus 与数字所有权的最后一块拼图
每当我在深夜审视那些曾经红极一时的 NFT 项目,看着它们的官方网站变成无法访问的空白页面,或者发现钱包里珍藏的艺术品缩略图因为源服务器欠费而只显示一个裂开的图标时,一种荒诞感便油然而生。我们身处一个标榜永恒、不可篡改的行业,却依然把这行业最宝贵的资产——数据本身,寄居在最脆弱的中心化基础设施之上。这就像是我们在沙滩上建造了一座纯金的宫殿,宫殿本身虽然坚固无比,但地基却是随时可能被潮水卷走的流沙。这种深层的焦虑促使我将目光投向了 Mysten Labs 最新的
@Walrus 🦭/acc
协议,试图在代码与算法的缝隙中寻找 Web3 存储困境的终极答案。
长期以来,区块链行业陷入了一个巨大的误区,即混淆了共识与存储的边界。我们习惯于把昂贵的链上空间当作硬盘来使用,试图用那些为了保证全球状态强一致性而设计的共识资源,去承载图片、视频和庞大的前端代码。这无异于用运钞车去运输建筑废料,不仅效率极低,而且成本高昂到令人生畏。Walrus 的出现,从架构层面彻底终结了这种混乱。它并没有试图发明一种万能的区块链,而是极具智慧地将数据层从执行层中剥离了出来。在这种新范式下,Sui 这样的高性能公链继续扮演着大脑的角色,负责处理复杂的逻辑、所有权确认和支付结算;而 Walrus 则化身为一个无限扩展的外部海马体,专门负责以极低的成本记忆那些海量的非结构化数据。
深入探究 Walrus 的底层技术,尤其是那个被称为 Red Stuff 的核心算法,你会发现它对传统去中心化存储方案的颠覆是系统性的。过去的存储项目,如 Filecoin,往往依赖于复杂的复制证明,本质上是一种通过堆砌硬件副本对抗丢失风险的人海战术。而 Walrus 引入了基于 RaptorQ 的二维纠删码技术,这是一种充满了数学美感的降维打击。它不再执着于在全网保留完整的数据副本,而是将文件像打碎的全息照片一样切分成无数个编码碎片。这些碎片散落在网络的各个角落,具有一种神奇的自愈能力:只要能收集到任意一部分碎片,哪怕只占总量的极小比例,原始数据就能在瞬间被毫秒级重组。这种基于概率论的鲁棒性,让网络不再依赖于单一节点的诚实或稳定,而是通过数学规律确保了数据的永生。
对于开发者而言,这种架构的变革意味着 DApp 的形态将发生根本性的进化。目前的去中心化应用其实大多是伪去中心化,因为它们的交互界面依然托管在 AWS、Vercel 等中心化云服务上。一旦这些中心化入口被切断,链上的智能合约再安全也变得无人问津。Walrus 带来了一种被称为 Walrus Sites 的全新可能性,它允许开发者将整个前端应用打包存储在去中心化网络中,通过浏览器直接渲染。这意味着未来的应用将不再是一个脆弱的 URL 链接,而是一个坚不可摧的链上资源索引。只要 Walrus 网络还在运转,应用就永远在线,无法被关停,无法被审查。这才是中本聪愿景中那个真正的、无法被拔网线的互联网。
更进一步看,Walrus 的野心或许并不仅限于 Web3,它极有可能是人工智能与区块链结合的关键枢纽。在 AI 时代,数据就是石油,模型就是炼油厂。然而,目前的 AI 生态是高度封闭的,巨头们垄断了数据和模型。如果我们想要构建一个开放的、去中心化的 AI 生态,首先需要解决的就是海量数据的存储问题。昂贵的以太坊存不下 AI 的训练集,缓慢的 IPFS 跑不动模型的实时推理。Walrus 这种高吞吐、低延迟、且具备所有权属性的存储网络,天生就是去中心化 AI 的数据湖。它让训练数据可以被确权,让模型权重可以被追溯,让每一次推理的价值流转都清晰可见。
在这个充斥着投机泡沫和短期炒作的市场里,静下心来打磨像 Walrus 这样底层基础设施的人显得格格不入。但这恰恰是它的价值所在。因为它解决的不是如何让资产价格翻倍的问题,而是如何让资产背后的意义得以存续的问题。当我们在谈论 Web3 的大规模落地时,我们需要的不是更多绚丽的金融模型,而是像水和电一样廉价、稳定且不可感知的基础设施。Walrus 正在做的,就是把去中心化存储从一个昂贵的概念,变成一种如同呼吸般自然的默认选项。如果不解决数据主权和存储成本的问题,Web3 永远只是少数人的金融游戏;而有了 Walrus,我们或许终于可以开始构建那个真正属于用户、永不消逝的数字世界。这不仅仅是技术的胜利,更是对互联网初心的回归。
#walrus
$WAL
WAL
Login to explore more contents
Login
Explore the latest crypto news
⚡️ Be a part of the latests discussions in crypto
💬 Interact with your favorite creators
👍 Enjoy content that interests you
Email / Phone number
Sign Up
Login
Trending Topics
MarketCorrection
16.7M views
44,082 Discussing
$BTC 🚨 Another $1.4 billion worth of levered crypto positions have been liquidated over the last 24 hours 🚨 A total of $8.5 billion worth of levered positions have been liquidated since January 28th 📢 Eight and a half billion in liquidations and people are still surprised ,This is what leverage does - same cycle every time 📢 $ETH I've watched trading floors during these cascading liquidations. Its mechanical - positions get forced out, that selling triggers more liquidations, which triggers more selling 🚨 Nobody's making decisions anymore, the math is making them 📢 $BNB The real story isnt the $8.5 billion thats already gone. Its whoever's sitting at 5x right now telling themselves their liquidation price "wont hit 👀 🚸 Warning 🚸 I do not provide financial advice 🔞The intent of this content is for you to be aware of market conditions before starting to invest 👌Thank you for reading 👌 #BitcoinDropMarketImpact #MarketCorrection
ENCRYPTION TAG
·
2 Likes
·
1.1k views
WhenWillBTCRebound
3.6M views
22,772 Discussing
WarshFedPolicyOutlook
445,913 views
2,627 Discussing
View More
Latest News
Bank of Japan Must Act Cautiously to Avoid Disrupting Inflation Cycle
--
Bitcoin Mining Firm MARA Transfers 1,318 BTC to Major Firms
--
Crypto Fear & Greed Index Falls to 9, Indicating Extreme Investor Fear
--
View More
Sitemap
Cookie Preferences
Platform T&Cs