這篇文章是個人探究的結果,而不是技術分析。因爲作爲內容生產者,我在塑造內容時與人工智能密切合作,在每個過程中,我分別質疑自己的知識和其建議,並試圖得出結論。

特別是在像@DAO Labs 這樣鼓勵參與的平臺上,與人工智能代理的關係非常重要。通過這些代理,我們試圖更好地思考、決策甚至理解某些問題。在這個過程中,質疑創造內容的系統與生產內容一樣變得不可避免。這就是我問自己的原因:“我會對我的個人數據感到如此安心嗎?”

#AI3 的時代,安全不僅是系統的問題,也是用戶的問題。信任通常不是從複雜的加密術語開始,而是從更人性化的東西開始:理解。這就是爲什麼這篇文章從我作爲用戶所提出的問題開始。它力求誠實地回答這些問題,使用我們可用的官方來源。

我接觸到的第一個概念是#TEE :可信執行環境。在陳馮博士的定義中,這些系統是在不可信環境中構建的孤立結構;是關閉外部干預的區域,只能在某些規則下訪問。可以把它看作一種堡壘,但這個堡壘並不是建在系統外部,而是在其內部。代理在這裏工作,數據在這裏處理,外部的人無法看到發生了什麼。一切聽起來都很安全。但我心中仍有一個非常基本的問題:這個城堡是誰建造的?誰擁有這扇門的鑰匙?在這一點上,我的腦海中冒出了一個新問題:這個結構到底有多安全?#ConfidentialAI

假設這個結構是萬無一失的,無論它看起來多麼安全,都是過於樂觀的。因爲通常是硬件製造商構建這些空間,這使我們進入了不可避免的信任關係。當然,隨着時間的推移,某些TEE實現中發現了脆弱性。然而,這裏關注的問題不僅是這個結構是否完美,而是這些結構的使用方式及其支持的內容。如今,這些系統不再被視爲獨立解決方案,而是作爲更大、更平衡架構的一部分。這使得它們合乎邏輯,但並非絕對。

這就是爲什麼系統設計不僅依賴於一種方法,而是通過平衡不同技術來使其有意義。還有替代解決方案。例如,ZKP,零知識證明,能夠在保密的同時驗證信息的準確性。或者像MPC這樣的系統,處理數據時將其拆分並在多個方之間共享。這些都是令人印象深刻的方法。在過去,這些技術被認爲是緩慢的,但近年來在速度上有了顯著進展。正如馮博士所說,我們可能要等到世紀末這些技術才能成熟。儘管這句話談及技術現實,但也令人矚目。

現在我來到了真正的問題:#AutonomysNetwork 在這一切中適合什麼?這個項目只是隱私的承諾,還是在真正構建一種不同的架構?我更關心這個問題的答案,因爲我不僅想信任技術;我還想知道系統是如何工作的。Autonomys並沒有孤立TEE。它保護代理在TEE內的行爲,並在鏈中記錄其決策的理由。這些記錄通過PoAS,存檔存儲證明,變得永久。換句話說,決策歷史無法被刪除或更改。這確保了系統不僅是祕密的,而且也是負責任的。代理們正在創建自己的記憶。即使在驗證我的身份時,系統也不會透露我的數據。這一細節得到了ZKP的支持。

但我仍然相信,在評估這些系統時,考慮它們工作的結構同樣重要。畢竟,我不是構建系統的人,我也沒有編寫代碼,但Autonomys的做法試圖讓我參與這一過程,而不是將我排除在外。代理的決策是可以解釋的,它們的記憶存儲在區塊鏈中,系統是可審計的,這使得信任的概念更加具體化。正如馮博士所說:“信任始於你被賦予從內部質疑係統的權利。”

在這一點上,安全不僅關乎系統是否封閉,還關乎內部發生的事情有多少可以理解。真正的安全始於用戶能夠向系統提問並理解他們所收到的答案。儘管Autonomys的TEE架構本身可能不是最終解決方案,但與互補的日誌機制、如PoAS的驗證層和身份保護解決方案相結合,它提供了一種多層次和整體的方法。

擁有強大人工智能學術背景的陳馮博士在如此詳細的結構背後,表明這種方法不是偶然的,而是經過深思熟慮和研究的。在我看來,這正是使Autonomys從普通的隱私倡議提升爲更嚴肅框架的原因。

#BinanceAlpha