イーサリアム共同創設者#VitalikButerin は、人工知能の急速な進展について深刻な懸念を表明し、超知能AIシステムによって引き起こされる可能性のあるリスクを強調しています。AIの開発が加速する中で、ブテリンは壊滅的な結果の可能性を軽減するために堅固な安全策を実施する重要性を強調しています。彼の最近の洞察は、1月5日のブログ投稿で共有され、AI技術による潜在的な危害に対抗するための積極的な対策の必要性を強調しています。
彼の投稿では、ブテリンは「防御的加速」(d/acc)の概念を紹介し、破壊ではなく保護に焦点を当てた技術開発を提唱しています。彼は、超知能—人間の知能を超えるAI—が今後数年以内に現れる可能性があることを警告し、それが人類の生存を脅かす可能性があると述べています。「人工一般知能(AGI)が到来するまでの三年間のウィンドウがあり、その後さらに三年間で超知能が続く可能性が高まっています。取り返しのつかない災害を避けるためには、ポジティブな進展を加速させるだけでなく、ネガティブなものを抑制する必要があります」とブテリンは書いています。彼のビジョンには、人間の制御を優先する分散型AIシステムの構築が含まれており、AIが人類に奉仕し、危険をもたらさないようにすることが求められています。
ブテリンはまた、AIの軍事応用に関連するリスクを強調し、ウクライナやガザでの最近の世界的な紛争を戦争におけるAIの使用の増加の例として挙げています。彼は、AI規制からの軍事的免除がこれらの危険を増幅させ、軍隊が潜在的なAI駆動の災害の主要な寄与者となる可能性があることを警告しています。このようなリスクに対処するために、ブテリンはAIの使用を規制するための多面的な戦略を提案しています。これには、AIシステムの使用方法に対するユーザーの責任を明確にし、進展を一時的に遅くする「ソフトポーズ」メカニズムを実施し、専門のチップを通じてAIハードウェアを制御することが含まれています。これらのチップは、責任ある運用を確保するために、少なくとも1つは非軍事の国際機関からの毎週の承認を必要とします。
ブテリンは、彼の提案した対策が完璧ではないことを認めつつも、それらを重要な当面の解決策と見なしています。彼は、有益なAIアプリケーションを加速させる一方で、有害なものを抑制するという二重の課題に対処することで、超知能AIの時代における人類の未来を守るための国際的な協力の緊急性を強調しています。
