Fred

Fred

Change the world by Web3 @RyzeLabs | alumni @THUBA_DAO

[深度分析]AIとWeb3はどのような火花を散らすことができるのか?

引言:AI+Web3 の発展#

過去数年間、人工知能(AI)と Web3 技術の急速な発展は、世界中で広く注目を集めています。AI は人間の知能を模倣する技術として、顔認識、自然言語処理、機械学習などの分野で重要なブレークスルーを達成しています。AI 技術の急速な発展は、あらゆる業界に大きな変革と革新をもたらしました。

AI 業界の市場規模は 2023 年に 2000 億ドルに達し、OpenAI、Character.AI、Midjourney などの業界の巨人や優れたプレイヤーが次々と登場し、AI ブームを牽引しています。

一方、Web3 は新たなネットワークモデルとして、私たちのインターネットに対する認識と使用方法を徐々に変えています。Web3 は分散型のブロックチェーン技術を基盤に、スマートコントラクト、分散ストレージ、分散型アイデンティティ認証などの機能を通じて、データの共有と制御、ユーザーの自治、信頼メカニズムの構築を実現しています。Web3 の核心理念は、データを中央集権的な権威機関から解放し、ユーザーにデータの制御権とデータ価値の共有権を与えることです。

現在、Web3 業界の時価総額は 25 兆ドルに達しており、Bitcoin、Ethereum、Solana、またはアプリケーション層の Uniswap、Stepn などのプレイヤーが新たな物語やシナリオを次々と生み出し、ますます多くの人々が Web3 業界に参加しています。

AI と Web3 の融合は、東西のビルダーや VC が非常に注目している分野であり、両者をどのようにうまく統合するかは非常に探求する価値のある問題です。

本記事では、AI+Web3 の発展状況に焦点を当て、この融合がもたらす潜在的な価値と影響を探ります。まず、AI と Web3 の基本概念と特徴を紹介し、次にそれらの相互関係を探ります。その後、現在の AI+Web3 プロジェクトの状況を分析し、直面している制約や課題について深く議論します。この研究を通じて、投資家や関連業界の専門家に有益な参考と洞察を提供できることを期待しています。

AI と Web3 の相互作用の方法#

AI と Web3 の発展は天秤の両側のようで、AI は生産性の向上をもたらし、Web3 は生産関係の変革をもたらします。では、AI と Web3 はどのような火花を散らすのでしょうか?次に、AI と Web3 業界がそれぞれ直面している困難と向上の余地を分析し、次にお互いがどのようにこれらの困難を解決するのを助けるかを探ります。
AI 業界が直面している困難と潜在的な向上の余地
Web3 業界が直面している困難と潜在的な向上の余地

AI 業界が直面している困難#

AI 業界が直面している困難を探るために、まず AI 業界の本質を見てみましょう。AI 業界の核心は、計算能力、アルゴリズム、データの 3 つの要素から成り立っています。

image

  1. まずは計算能力:計算能力は、大規模な計算と処理を行う能力を指します。AI タスクは通常、大量のデータを処理し、複雑な計算を行う必要があります。たとえば、深層神経ネットワークモデルのトレーニングなどです。高強度の計算能力は、モデルのトレーニングと推論プロセスを加速し、AI システムの性能と効率を向上させます。近年、ハードウェア技術の進展に伴い、グラフィックプロセッサ(GPU)や専用 AI チップ(TPU など)のような計算能力の向上は、AI 業界の発展に重要な推進力をもたらしました。近年、株価が急騰した Nvidia は、GPU の提供者として大きな市場シェアを占め、高額な利益を得ています。

  2. アルゴリズムとは何か:アルゴリズムは AI システムの核心的な構成要素であり、問題を解決し、タスクを実現するための数学的および統計的手法です。AI アルゴリズムは、従来の機械学習アルゴリズムと深層学習アルゴリズムに分けられ、特に深層学習アルゴリズムは近年重要なブレークスルーを達成しています。アルゴリズムの選択と設計は、AI システムの性能と効果にとって極めて重要です。継続的な改良と革新が行われるアルゴリズムは、AI システムの正確性、堅牢性、一般化能力を向上させることができます。異なるアルゴリズムは異なる効果を持つため、アルゴリズムの向上はタスクの効果を達成する上で非常に重要です。

  3. データが重要な理由:AI システムの核心的なタスクは、学習とトレーニングを通じてデータのパターンと規則を抽出することです。データはモデルのトレーニングと最適化の基盤であり、大規模なデータサンプルを通じて、AI システムはより正確で、よりインテリジェントなモデルを学習できます。豊富なデータセットは、より包括的で多様な情報を提供し、モデルが未見のデータに対してより良く一般化できるようにし、AI システムが現実世界の問題をよりよく理解し解決するのを助けます。

現在の AI の核心的な 3 要素を理解した後、これらの 3 つの側面で AI が直面している困難と課題を見てみましょう。まず、計算能力の面では、AI タスクは通常、大量の計算リソースを必要とし、特に深層学習モデルにとってはそうです。しかし、大規模な計算能力を取得し管理することは、高価で複雑な課題です。高性能計算デバイスのコスト、エネルギー消費、メンテナンスはすべて問題です。特にスタートアップ企業や個人開発者にとって、十分な計算能力を得ることは難しいかもしれません。

アルゴリズムの面では、深層学習アルゴリズムが多くの分野で大きな成功を収めているにもかかわらず、いくつかの困難と課題が依然として存在します。たとえば、深層神経ネットワークのトレーニングには大量のデータと計算リソースが必要であり、特定のタスクに対してはモデルの解釈性と説明性が不足している可能性があります。さらに、アルゴリズムの堅牢性と一般化能力も重要な問題であり、モデルが未見のデータに対して不安定なパフォーマンスを示す可能性があります。数多くのアルゴリズムの中から、最適なアルゴリズムを見つけて最良のサービスを提供することは、常に探求が必要なプロセスです。

データの面では、データは AI の推進力ですが、高品質で多様なデータを取得することは依然として課題です。特定の分野ではデータを取得することが難しい場合があります。たとえば、医療分野の敏感な健康データなどです。また、データの質、正確性、ラベリングも問題であり、不完全または偏ったデータはモデルの誤った動作や偏見を引き起こす可能性があります。同時に、データのプライバシーとセキュリティを保護することも重要な考慮事項です。

さらに、可解釈性や透明性の問題も存在し、AI モデルのブラックボックス特性は公衆の関心を集めています。金融、医療、司法などの特定のアプリケーションにおいては、モデルの意思決定プロセスは説明可能で追跡可能である必要がありますが、既存の深層学習モデルはしばしば透明性に欠けています。モデルの意思決定プロセスを説明し、信頼できる説明を提供することは依然として課題です。

加えて、多くの AI プロジェクトのビジネスモデルは明確ではなく、この点が多くの AI 起業家を困惑させています。

Web3 業界が直面している困難#

Web3 業界においても、データ分析や Web3 製品のユーザー体験の悪さ、スマートコントラクトのコードの脆弱性やハッキングの問題など、解決すべきさまざまな困難が存在します。AI は生産性を向上させるツールとして、これらの面でも多くの潜在的な活用の余地があります。

まず、データ分析と予測能力の向上です。AI 技術のデータ分析と予測への応用は、Web3 業界に大きな影響をもたらしています。AI アルゴリズムによるインテリジェントな分析と発掘を通じて、Web3 プラットフォームは膨大なデータから価値のある情報を抽出し、より正確な予測と意思決定を行うことができます。これは、分散型金融(DeFi)分野におけるリスク評価、市場予測、資産管理などにおいて重要な意義を持ちます。

さらに、ユーザー体験とパーソナライズサービスの改善も実現できます。AI 技術の応用により、Web3 プラットフォームはより良いユーザー体験とパーソナライズサービスを提供できるようになります。ユーザーデータの分析とモデル化を通じて、Web3 プラットフォームはユーザーにパーソナライズされた推奨、カスタマイズされたサービス、インテリジェントなインタラクション体験を提供できます。これにより、ユーザーの参加度と満足度が向上し、Web3 エコシステムの発展を促進します。たとえば、多くの Web3 プロトコルは ChatGPT などの AI ツールを導入して、ユーザーにより良いサービスを提供しています。

セキュリティとプライバシー保護の面でも、AI の応用は Web3 業界に深遠な影響を与えます。AI 技術は、ネットワーク攻撃の検出と防御、異常行動の識別に利用され、より強力なセキュリティを提供します。同時に、AI はデータプライバシー保護にも応用され、データ暗号化やプライバシー計算などの技術を通じて、Web3 プラットフォーム上でのユーザーの個人情報を保護します。スマートコントラクトの監査においては、スマートコントラクトの作成と監査プロセスで脆弱性やセキュリティリスクが存在する可能性があるため、AI 技術は自動化された契約監査や脆弱性検出に利用され、契約のセキュリティと信頼性を向上させます。

Web3 業界が直面している困難と潜在的な向上の余地において、AI は多くの面で参加し、支援することができます。

AI+Web3 プロジェクトの現状分析#

AI と Web3 のプロジェクトは、主に 2 つの大きな側面からアプローチしています。ブロックチェーン技術を利用して AI プロジェクトのパフォーマンスを向上させること、そして AI 技術を利用して Web3 プロジェクトの向上に寄与することです。

これら 2 つの側面に関連して、多くのプロジェクトがこの道を探求しています。Io.net、Gensyn、Ritual など、さまざまなプロジェクトが登場し、次に本記事では AI が Web3 を支援することと Web3 が AI を支援することの異なるサブトラックの現状と発展状況を分析します。

image

Web3 が AI を支援する#

分散型計算能力#

OpenAI が 2022 年末に ChatGPT を発表して以来、AI ブームが巻き起こりました。発表から 5 日でユーザー数は 100 万人に達し、以前の Instagram は約 2 か月半かかって 100 万ダウンロードに達しました。その後、ChatGPT の成長も非常に急速で、2 か月以内に月間アクティブユーザー数は 1 億に達し、2023 年 11 月には週次アクティブユーザー数が 1 億に達しました。ChatGPT の登場に伴い、AI 分野は急速にニッチな分野から注目される業界へと成長しました。

Trendforce の報告によれば、ChatGPT を運用するには 30000 個の NVIDIA A100 GPU が必要であり、将来的には GPT-5 がさらに多くの計算能力を必要とすることが予想されています。これにより、各 AI 企業間で軍拡競争が始まり、十分な計算能力を確保することが AI 戦争において重要な動力と優位性を確保するための条件となり、GPU の不足が生じています。

AI の台頭以前、GPU の最大の提供者である NVIDIA の顧客は、主に 3 つの大手クラウドサービスに集中していました:AWS、Azure、GCP。人工知能の興隆に伴い、大手テクノロジー企業の Meta、Oracle、その他のデータプラットフォームや AI スタートアップなど、多くの新しいバイヤーが登場し、AI モデルのトレーニングのために GPU を蓄積する戦争に参加しています。Meta や Tesla などの大手テクノロジー企業は、カスタマイズされた AI モデルや内部研究の購入量を大幅に増加させました。Anthropic のような基盤モデル企業や Snowflake、Databricks のようなデータプラットフォームも、顧客に AI サービスを提供するためにより多くの GPU を購入しています。

昨年、Semi Analysis が指摘したように、「GPU の富者と GPU の貧者」が存在し、少数の企業が 2 万以上の A100/H100 GPU を保有し、チームメンバーはプロジェクトに 100 から 1000 の GPU を使用できます。これらの企業は、クラウドプロバイダーまたは自社で LLM を構築している企業であり、OpenAI、Google、Meta、Anthropic、Inflection、Tesla、Oracle、Mistral などが含まれます。

しかし、大部分の企業は GPU の貧者に属し、はるかに少ない GPU で苦しみ、エコシステムの発展を促進するために多くの時間と労力を費やしています。この状況はスタートアップ企業に限らず、Hugging Face、Databricks(MosaicML)、Together、さらには Snowflake の A100/H100 の数も 2 万未満です。これらの企業は世界一流の技術者を抱えていますが、GPU の供給数に制約されており、大企業との AI 競争において不利な立場にあります。

この不足は「GPU の貧者」に限らず、2023 年末には AI 業界のリーダーである OpenAI が十分な GPU を確保できず、有料登録を数週間停止せざるを得なくなり、さらに GPU の供給を調達する必要がありました。

image

AI の急速な発展に伴い、GPU の需要側と供給側の間に深刻なミスマッチが生じており、供給不足の問題が差し迫っています。

この問題を解決するために、一部の Web3 プロジェクトは Web3 の技術的特徴を組み合わせて、分散型の計算サービスを提供することを試みています。これには Akash、Render、Gensyn などが含まれます。これらのプロジェクトの共通点は、トークンを通じて多くのユーザーに余剰の GPU 計算能力を提供するよう促し、計算能力の供給側となり、AI クライアントに計算能力のサポートを提供することです。

供給側の構成要素は主に 3 つに分けられます:クラウドサービスプロバイダー、暗号通貨マイナー、企業です。

クラウドサービスプロバイダーには、大手クラウドサービスプロバイダー(AWS、Azure、GCP など)や GPU クラウドサービスプロバイダー(Coreweave、Lambda、Crusoe など)が含まれ、ユーザーは余剰のクラウドサービスプロバイダーの計算能力を再販して収入を得ることができます。暗号マイナーは、Ethereum が PoW から PoS に移行するにつれて、余剰の GPU 計算能力が重要な潜在的供給側となりました。さらに、Tesla や Meta のような戦略的な理由で大量の GPU を購入した大企業も、余剰の GPU 計算能力を供給側として活用できます。

現在のトラックのプレイヤーは大きく 2 つのカテゴリに分けられます。一つは分散型計算能力を AI の推論に使用するもので、もう一つは分散型計算能力を AI のトレーニングに使用するものです。前者には Render(レンダリングに特化していますが、AI 計算能力の提供にも使用可能)、Akash、Aethir などが含まれ、後者には io.net(推論とトレーニングの両方をサポート)、Gensyn が含まれ、両者の最大の違いは計算能力の要求が異なることです。

まず、AI 推論のプロジェクトについて話しましょう。この種のプロジェクトは、トークンのインセンティブを通じてユーザーの計算能力の提供を促し、計算能力ネットワークサービスを需要側に提供することで、余剰の計算能力の供給と需要をマッチングします。この種のプロジェクトに関する紹介と分析は、私たち Ryze Labs の以前の DePIN の研究報告書に記載されていますので、ぜひご覧ください。

最も重要な点は、トークンインセンティブメカニズムを通じて、プロジェクトが供給者を引き付け、その後ユーザーを引き付けることで、プロジェクトのコールドスタートとコア運営メカニズムを実現し、さらなる拡張と発展を可能にすることです。このようなサイクルの中で、供給側はより多くの価値のあるトークン報酬を得て、需要側はより安価でコストパフォーマンスの高いサービスを受けることができ、プロジェクトのトークン価値と供給・需要の両側の参加者の増加が一致し、トークン価格の上昇に伴い、より多くの参加者や投機家を引き付け、価値の捕獲を形成します。

image

もう一つのカテゴリは、分散型計算能力を AI のトレーニングに使用するもので、Gensyn、io.net(AI トレーニングと AI 推論の両方をサポート)などがあります。実際、この種のプロジェクトの運営ロジックは AI 推論のプロジェクトと本質的には大きな違いはなく、依然としてトークンインセンティブを通じて供給側の参加を引き付け、需要側が使用するための計算能力を提供します。

io.net は分散型計算ネットワークとして、現在 GPU の数は 50 万を超え、分散型計算プロジェクトの中で非常に優れたパフォーマンスを示しています。また、現在 Render や Filecoin の計算能力も統合され、エコシステムプロジェクトの発展を続けています。

image

さらに、Gensyn はスマートコントラクトを通じて機械学習のタスクの割り当てと報酬を促進し、AI のトレーニングを実現します。以下の図のように、Gensyn の機械学習トレーニングの作業の 1 時間あたりのコストは約 0.4 ドルであり、AWS や GCP の 2 ドルを超えるコストよりもはるかに低いです。

Gensyn のシステムには、提出者、実行者、検証者、通報者の 4 つの参加主体が含まれます。

  • 提出者:需要ユーザーはタスクの消費者であり、計算されるタスクを提供し、AI トレーニングタスクに対して支払います。
  • 実行者:実行者はモデルのトレーニングタスクを実行し、タスクを完了した証明を生成して検証者のチェックに供します。
  • 検証者:非決定的なトレーニングプロセスと決定的な線形計算を関連付け、実行者の証明を期待される閾値と比較します。
  • 通報者:検証者の作業をチェックし、問題を発見した場合には疑問を提起して報酬を得ます。

Gensyn は、グローバルな深層学習モデルのための超大規模で経済的な計算プロトコルになることを目指しています。しかし、このトラックを通じて、なぜ大部分のプロジェクトが AI 推論のために分散型計算能力を選択し、トレーニングを選ばないのでしょうか?
ここで、AI トレーニングと推論の違いを理解していない方のために、両者の違いを紹介します:

  • AI トレーニング:人工知能を学生に例えるなら、トレーニングは人工知能に大量の知識を提供することに似ています。例は、私たちが一般的にデータと呼ぶものです。人工知能はこれらの知識の例から学習します。学習の本質は大量の情報を理解し記憶する必要があるため、このプロセスには大量の計算能力と時間が必要です。
  • AI 推論:推論とは何でしょうか?学んだ知識を使って問題を解決したり、試験を受けたりすることと理解できます。推論の段階では、人工知能は学んだ知識を使って解答しますが、新しい知識を活動することはありません。そのため、推論プロセスに必要な計算量は比較的少なくなります。

両者の計算能力の要求は大きく異なることがわかります。分散型計算能力が AI 推論と AI トレーニングの両方でどのように利用できるかについては、後の課題の章でさらに詳しく分析します。

また、Ritual は分散型ネットワークとモデルの作成者を結びつけ、分散型とセキュリティを維持しようとしています。その最初の製品 Infernet は、ブロックチェーン上のスマートコントラクトがオフチェーンで AI モデルにアクセスできるようにし、検証、分散型、プライバシー保護を維持する方法でこのような契約が AI にアクセスできるようにします。

Infernet のコーディネーターは、ネットワーク内のノードの行動を管理し、消費者からの計算リクエストに応じます。ユーザーが Infernet を使用する際、推論や証明などの作業はオフチェーンで行われ、結果はコーディネーターに戻され、最終的に契約を通じてチェーン上の消費者に渡されます。

分散型計算ネットワークの他にも、Grass のような分散型帯域幅ネットワークがあり、データ転送の速度と効率を向上させます。全体として、分散型計算ネットワークの出現は、AI の計算能力供給側に新たな可能性を提供し、AI をさらに前進させることを促進しています。

分散型アルゴリズムモデル#

第 2 章で述べたように、AI の 3 つの核心要素は計算能力、アルゴリズム、データです。計算能力が分散型の方法で供給ネットワークを形成できるのであれば、アルゴリズムも同様の考え方でアルゴリズムモデルの供給ネットワークを形成できるのでしょうか?
トラックプロジェクトを分析する前に、まず分散型アルゴリズムモデルの意義を理解しましょう。多くの人が疑問に思うのは、すでに OpenAI が存在するのに、なぜ分散型のアルゴリズムネットワークが必要なのかということです。

本質的に、分散型のアルゴリズムネットワークは、さまざまな AI モデルをリンクする分散型 AI アルゴリズムサービス市場です。各 AI モデルは自分の得意な知識とスキルを持ち、ユーザーが質問を提出すると、市場は最も適した AI モデルを選択して回答を提供します。Chat-GPT は OpenAI が開発した AI モデルであり、人間に似たテキストを理解し生成することができます。

簡単に言えば、ChatGPT はさまざまな問題を解決するために非常に優れた能力を持つ学生のようなもので、分散型のアルゴリズムネットワークは多くの学生を持つ学校のようなもので、現在この学生の能力は非常に高いですが、長期的に見ると、世界中の学生を募集できる学校には非常に大きな潜在能力があります。

現在、分散型アルゴリズムモデルの分野でも、いくつかのプロジェクトが試行錯誤を行っています。次に、代表的なプロジェクトである Bittensor をケーススタディとして、この細分野の発展状況を理解する手助けをします。

Bittensor では、アルゴリズムモデルの供給側(またはマイナー)が自分の機械学習モデルをネットワークに提供します。これらのモデルはデータを分析し、洞察を提供することができます。モデル供給者はその貢献に対して暗号通貨トークン TAO を報酬として受け取ります。

問題の回答の質を保証するために、Bittensor は独自のコンセンサスメカニズムを使用して、ネットワークが最良の回答に合意することを確保します。質問が提出されると、複数のモデルマイナーが回答を提供します。その後、ネットワーク内の検証者が作業を開始し、最良の回答を特定し、それをユーザーに送信します。

Bittensor のトークン TAO は、プロセス全体で主に 2 つの役割を果たします。一つは、マイナーがアルゴリズムモデルをネットワークに貢献するようにインセンティブを与えること、もう一つは、ユーザーが質問をしたりネットワークにタスクを完了させたりするためにトークンを費やす必要があることです。

Bittensor は分散型であるため、インターネットにアクセスできる人は誰でもネットワークに参加でき、質問を提出するユーザーとしても、回答を提供するマイナーとしても参加できます。これにより、より多くの人々が強力な人工知能を利用できるようになります。

要するに、Bittensor のようなネットワークを例にとると、分散型アルゴリズムモデルの分野は、よりオープンで透明な状況を生み出す可能性があります。このエコシステムでは、人工知能モデルは安全かつ分散された方法でトレーニング、共有、利用されることができます。また、BasedAI のような分散型アルゴリズムモデルネットワークも同様のことを試みており、特に興味深いのは、ZK を通じてユーザーとモデルのインタラクションデータのプライバシーを保護することです。これは第 4 節でもさらに議論されます。

分散型アルゴリズムモデルプラットフォームの発展に伴い、小規模企業がトップ AI ツールを使用する際に大規模組織と競争できるようになり、各業界に潜在的な重大な影響を与えることが期待されます。

分散型データ収集#

AI モデルのトレーニングには、大量のデータ供給が不可欠です。しかし、現在のほとんどの Web2 企業は、ユーザーのデータを独占しています。たとえば、X、Reddit、TikTok、Snapchat、Instagram、YouTube などのプラットフォームは、AI トレーニングのためのデータ収集を禁止しています。これは AI 業界の発展にとって大きな障害となっています。

一方で、一部の Web2 プラットフォームは、AI 企業にユーザーデータを販売していますが、ユーザーに利益を共有していません。たとえば、Reddit は Google と 6000 万ドルの契約を結び、Google がその投稿を使用して AI モデルをトレーニングすることを許可しました。これにより、データ収集権が大資本と大データ企業によって独占され、業界が超資本集約型の方向に進むことになりました。

このような現状に直面して、一部のプロジェクトは Web3 を通じてトークンインセンティブの方法で分散型データ収集を実現しようとしています。
PublicAI を例にとると、PublicAI ではユーザーが 2 つの役割として参加できます:

  • 一つは AI データの提供者で、ユーザーは X 上で価値のあるコンテンツを見つけ、@PublicAI 公式に見解を添えて、#AI または #Web3 を分類タグとして使用することで、コンテンツを PublicAI データセンターに送信し、データ収集を実現します。
  • もう一つはデータ検証者で、ユーザーは PublicAI データセンターにログインし、AI トレーニングに最も価値のあるデータを選択して投票します。
    報酬として、ユーザーはこれら 2 つの貢献を通じてトークンインセンティブを得ることができ、データの貢献者と人工知能産業の開発者との間のウィンウィンの関係を促進します。

PublicAI のような AI トレーニングのためにデータを収集する専用プロジェクトの他にも、Ocean がユーザーデータを収集して AI にサービスを提供するためにデータのトークン化を通じて行っているように、トークンインセンティブを通じて分散型データ収集を行っている多くのプロジェクトがあります。Hivemapper はユーザーの車載カメラを通じて地図データを収集し、Dimo はユーザーの車のデータを収集し、WiHi は天気データを収集するなど、これらの分散型データ収集プロジェクトも AI トレーニングの供給側として潜在的な役割を果たしています。したがって、広義には Web3 が AI を支援する枠組みにも含めることができます。

ZK が AI におけるユーザープライバシーを保護#

ブロックチェーン技術がもたらすのは分散型の利点だけでなく、もう一つ重要なのはゼロ知識証明です。ゼロ知識技術を通じて、プライバシーを保護しながら情報の検証を実現できます。

従来の機械学習では、データは通常集中して保存され処理されるため、データプライバシーの漏洩リスクが生じる可能性があります。一方で、データプライバシーを保護する方法(データ暗号化やデータの去識別化など)は、機械学習モデルの正確性や性能を制限する可能性があります。

ゼロ知識証明技術は、プライバシー保護とデータ共有の間の対立を解決するのに役立ちます。
ZKML(Zero-Knowledge Machine Learning)は、ゼロ知識証明技術を使用して、元のデータを漏洩させることなく機械学習モデルのトレーニングと推論を行うことを可能にします。ゼロ知識証明により、データの特徴とモデルの結果が正しいことを証明でき、実際のデータ内容を明らかにすることなく行えます。

ZKML の核心的な目標は、プライバシー保護とデータ共有のバランスを実現することです。これは、医療健康データ分析、金融データ分析、組織間の協力など、さまざまなシーンに応用できます。ZKML を使用することで、個人は敏感なデータのプライバシーを保護しながら、他者とデータを共有してより広範な洞察や協力の機会を得ることができ、データプライバシー漏洩のリスクを心配する必要がありません。
現在、この分野はまだ初期段階にあり、ほとんどのプロジェクトは探索中です。たとえば、BasedAI は、FHE と LLM をシームレスに統合する分散型のアプローチを提案し、データの機密性を保持します。ゼロ知識大型言語モデル(ZK-LLM)を利用して、プライバシーを分散型ネットワークインフラのコアに埋め込み、ユーザーデータがネットワーク全体で運用される過程でプライベートに保たれることを確保します。

ここで、全同態暗号(FHE)とは何かを簡単に説明します。全同態暗号は、暗号化された状態でデータを計算できる暗号技術であり、復号する必要がありません。これは、FHE で暗号化されたデータ上で実行されるさまざまな数学的演算(加算、乗算など)が、データの暗号化状態を保持したままで行われ、元の未暗号化データ上で実行される同じ演算の結果と同じ結果を得ることができることを意味します。これにより、ユーザーデータのプライバシーが保護されます。

さらに、上述の 4 つのカテゴリに加えて、Web3 が AI を支援する分野にも、Cortex のような AI プログラムをチェーン上で実行するブロックチェーンプロジェクトがあります。現在、従来のブロックチェーン上で機械学習プログラムを実行することは、仮想マシンが複雑でない機械学習モデルを実行する際に非常に非効率的であるという課題に直面しています。そのため、多くの人々はブロックチェーン上で人工知能を実行することは不可能だと考えています。しかし、Cortex 仮想マシン(CVM)は GPU を利用して、チェーン上で AI プログラムを実行し、EVM と互換性があります。言い換えれば、Cortex チェーンはすべての Ethereum Dapp を実行でき、その上で AI 機械学習をこれらの Dapp に組み込むことができます。これにより、分散型、不変、透明な方法で機械学習モデルを実行できるようになり、ネットワークの合意が AI 推論の各ステップを検証します。

AI が Web3 を支援する#

AI と Web3 の衝突の中で、Web3 が AI を支援するだけでなく、AI が Web3 業界を支援することも非常に注目に値します。人工知能の核心的な貢献は生産性の向上にあり、したがって AI はスマートコントラクトの監査、データ分析と予測、パーソナライズサービス、セキュリティとプライバシー保護などの分野で多くの試みを行っています。

データ分析と予測#

現在、多くの Web3 プロジェクトが既存の AI サービス(たとえば ChatGPT)を統合したり、自社開発したりして、Web3 ユーザーにデータ分析や予測のサービスを提供しています。これには、AI アルゴリズムを通じて投資戦略を提供したり、オンチェーン分析 AI ツールを提供したり、価格や市場の予測を行ったりすることが含まれます。

たとえば、Pond は AI グラフアルゴリズムを使用して将来の価値のあるアルファトークンを予測し、ユーザーや機関に投資の補助を提供します。また、BullBear AI はユーザーの過去のデータや価格の履歴、市場の動向に基づいてトレーニングを行い、最も正確な情報を提供して価格動向を予測し、ユーザーが利益を得るのを支援します。

さらに、Numerai のような投資コンペティションプラットフォームでは、参加者が AI や大規模言語モデルを基に株式市場を予測し、プラットフォームが提供する高品質なデータを使用してモデルをトレーニングし、毎日予測を提出します。Numerai は、これらの予測が次の 1 か月間にどのように機能するかを計算し、参加者は NMR をモデルに賭け、モデルのパフォーマンスに応じて報酬を得ることができます。

また、Arkham のようなオンチェーンデータ分析プラットフォームも AI を統合してサービスを提供しています。Arkham はブロックチェーンアドレスを取引所、ファンド、クジラなどの実体と関連付け、ユーザーにこれらの実体の重要なデータと分析を示し、意思決定の優位性を提供します。AI との統合部分は、Arkham Ultra がアルゴリズムを通じてアドレスを現実世界の実体とマッチングさせることで、Arkham のコア貢献者が Palantir や OpenAI の創設者の支援を受けて 3 年間開発したものです。

パーソナライズサービス#

Web2 のプロジェクトでは、AI は検索や推薦の分野で多くのアプリケーションシーンを持ち、ユーザーのパーソナライズされたニーズに応えています。Web3 プロジェクトでも同様で、多くのプロジェクトが AI を統合することでユーザーの使用体験を最適化しています。

たとえば、データ分析プラットフォーム Dune は最近、Wand ツールを新たに導入し、大規模言語モデルを利用して SQL クエリを作成します。Wand Create 機能を使用すると、ユーザーは自然言語の質問に基づいて自動的に SQL クエリを生成でき、SQL を理解していないユーザーでも非常に便利に検索できます。

さらに、Web3 のコンテンツプラットフォームも ChatGPT を統合してコンテンツを要約する試みを行っています。たとえば、Web3 メディアプラットフォーム Followin は ChatGPT を統合して特定の分野の見解や最新情報を要約します。Web3 百科事典プラットフォーム IQ.wiki は、ブロックチェーン技術や暗号通貨に関するすべての客観的で高品質な知識の主要なソースとなることを目指しており、ユーザーに信頼できる情報を提供するために GPT-4 を統合しています。また、LLM に基づく検索エンジン Kaito は、Web3 検索プラットフォームとして、Web3 の情報取得方法を変えることを目指しています。

創作の面でも、NFPrompt のようにユーザーの創作コストを削減するプロジェクトがあります。NFPrompt は、ユーザーが AI を通じて NFT をより簡単に生成できるようにし、創作コストを削減し、創作において多くのパーソナライズされたサービスを提供します。

AI によるスマートコントラクトの監査#

Web3 分野では、スマートコントラクトの監査も非常に重要な作業です。AI を使用してスマートコントラクトコードの監査を行うことで、コード内の脆弱性をより効率的かつ正確に特定できます。

Vitalik が以前に指摘したように、暗号通貨分野が直面する最大の課題の一つは、コード内のエラーです。期待される可能性の一つは、人工知能(AI)が特定の属性を満たすコードセットを証明するために形式検証ツールを使用することを大幅に簡素化できることです。これが実現できれば、無エラーの SEK EVM(たとえば Ethereum 仮想マシン)を持つ可能性があります。エラーの数が減るほど、空間の安全性が増し、AI はこれを実現する上で非常に役立ちます。

たとえば、0x0.ai プロジェクトは、AI を使用してスマートコントラクトを監査するツールを提供しています。これは、先進的なアルゴリズムを使用してスマートコントラクトを分析し、詐欺やその他のセキュリティリスクを引き起こす可能性のある脆弱性や問題を特定するツールです。監査員は機械学習技術を使用してコード内のパターンや異常を特定し、潜在的な問題をマークしてさらなるレビューのために提出します。

上記の 3 つのカテゴリに加えて、AI が Web3 分野を支援するネイティブなケースもいくつか存在します。たとえば、PAAL はユーザーが個別の AI ボットを作成できるように支援し、Telegram や Discord に展開して Web3 ユーザーにサービスを提供します。AI 駆動のマルチチェーン DEX アグリゲーター Hera は、AI を利用して最も広範なトークンと任意のトークンペア間の最適な取引経路を提供します。全体として、AI が Web3 を支援することは、主にツールレベルでの支援となっています。

AI+Web3 プロジェクトの限界と課題の現状#

分散型計算能力における現実的な障害#

現在の Web3 が AI を支援するプロジェクトの中で、多くは分散型計算能力に焦点を当て、トークンインセンティブの方法で世界中のユーザーが計算能力の供給側となることを促進するという非常に興味深い革新を行っていますが、一方で解決すべき現実的な問題にも直面しています。

中央集権型の計算サービスプロバイダーと比較して、分散型計算製品は通常、世界中に分散したノードと参加者に計算リソースを提供することに依存しています。これらのノード間のネットワーク接続には遅延や不安定性が存在する可能性があるため、性能と安定性は中央集権型計算製品よりも劣る可能性があります。

さらに、分散型計算製品の可用性は、供給と需要のマッチングの程度に影響されます。十分な供給者がいない場合や需要が過剰な場合、リソース不足やユーザーのニーズを満たせない可能性があります。

最後に、中央集権型計算製品と比較して、分散型計算製品は通常、より多くの技術的詳細と複雑性を伴います。ユーザーは分散型ネットワーク、スマートコントラクト、暗号通貨の支払いなどの知識を理解し、処理する必要があるため、ユーザーの理解と使用のコストが高くなります。

多くの分散型計算プロジェクトの関係者と深く議論した結果、現在の分散型計算は基本的に AI 推論に限られ、AI トレーニングには適用できないことがわかりました。

次に、4 つの小さな質問を通じて、背後にある理由を理解する手助けをします:

  1. なぜ大部分の分散型計算プロジェクトは AI 推論を選択し、AI トレーニングを選ばないのか?
  2. NVIDIA の強みはどこにあるのか?分散型計算トレーニングが難しい理由は何か?
  3. 分散型計算(Render、Akash、io.net など)の最終的な姿はどのようなものか?
  4. 分散型アルゴリズム(Bittensor)の最終的な姿はどのようなものか?

次に、これらの質問を一つずつ解決していきましょう:
1)このトラックを通じて、大部分の分散型計算プロジェクトが AI 推論を選択し、トレーニングを選ばない理由は、計算能力と帯域幅の要求が異なることにあります。

より良い理解を助けるために、AI を学生に例えてみましょう:

AI トレーニング:人工知能を学生に例えるなら、トレーニングは人工知能に大量の知識を提供することに似ています。例は、私たちが一般的にデータと呼ぶものです。人工知能はこれらの知識の例から学習します。学習の本質は大量の情報を理解し記憶する必要があるため、このプロセスには大量の計算能力と時間が必要です。

AI 推論:推論とは何でしょうか?学んだ知識を使って問題を解決したり、試験を受けたりすることと理解できます。推論の段階では、人工知能は学んだ知識を使って解答しますが、新しい知識を活動することはありません。そのため、推論プロセスに必要な計算量は比較的少なくなります。

両者の難易度の違いは、実際には大規模モデルの AI トレーニングには膨大なデータ量と高速通信に対する帯域幅の要求が非常に高いため、現在分散型計算をトレーニングに使用することは非常に困難です。一方、推論はデータと帯域幅の要求が少なく、実現の可能性が高いです。

大規模モデルにとって最も重要なのは安定性です。トレーニングが中断されると、再トレーニングが必要になり、埋没コストが非常に高くなります。一方で、計算要求が比較的低いニーズは実現可能です。たとえば、前述の AI 推論や特定のシーンにおける中小型モデルのトレーニングは実現可能であり、分散型計算ネットワークには相対的に大きなノードサービスプロバイダーが存在し、これらの相対的に大きな計算要求にサービスを提供できる可能性があります。

2)では、データと帯域幅のボトルネックはどこにあるのでしょうか?なぜ分散型トレーニングが実現できないのでしょうか?

これは、大規模モデルのトレーニングにおける 2 つの重要な要素、単一カード計算能力とマルチカード並列処理に関係しています。
単一カード計算能力:現在、大規模モデルのトレーニングが必要なすべての中心を超算センターと呼びます。理解を助けるために、人体を比喩として使用しましょう。超算センターは人体の組織であり、基盤の単位である GPU は細胞です。単一の細胞(GPU)の計算能力が非常に強い場合、全体の計算能力(単一の細胞 × 数量)も強くなる可能性があります。

マルチカード並列処理:大規模モデルのトレーニングは通常、数百億 GB のデータを必要とします。大規模モデルのトレーニングを行う超算センターには、少なくとも 1 万以上の A100 が必要です。したがって、これらの数万のカードを動員してトレーニングを行う必要がありますが、大規模モデルのトレーニングは単純な直列処理ではなく、異なる部分のモデルを異なる GPU でトレーニングします。トレーニング A の際には B の結果が必要になることがあるため、マルチカード並列処理が関与します。

なぜ NVIDIA がこれほど優れているのか、株価が急騰しているのか、AMD や国内の Huawei、Horizon が現在追いつけない理由は、2 つの側面にあります:CUDA ソフトウェア環境と NVLink マルチカード通信です。

一方で、ハードウェアに適応するソフトウェアエコシステムが存在するかどうかは非常に重要です。たとえば、NVIDIA の CUDA システムのように、新しいシステムを構築することは非常に困難であり、新しい言語を構築するようなもので、置き換えコストが非常に高いです。

もう一方では、マルチカード通信が重要です。本質的に、マルチカード間の伝送は情報の入力と出力です。どのように並列処理し、どのように伝送するかが問題です。NVLink の存在により、NVIDIA と AMD のカードを接続することはできません。また、NVLink は GPU 間の物理的距離を制限し、GPU が同じ超算センター内にある必要があります。これにより、分散型計算が世界中に分散している場合、実現が難しくなります。

第一の点は、なぜ AMD や国内の Huawei、Horizon が現在追いつけないのかを説明しています。第二の点は、なぜ分散型トレーニングが難しいのかを説明しています。

3)分散型計算の最終的な姿はどのようなものになるでしょうか?
分散型計算は現在、大規模モデルのトレーニングを行うことが難しいですが、その核心は大規模モデルのトレーニングが最も重視するのは安定性です。トレーニングが中断されると、再トレーニングが必要になり、埋没コストが非常に高くなります。マルチカード並列処理の要求も高く、帯域幅は物理的距離によって制約されます。NVIDIA は NVLink を通じてマルチカード通信を実現していますが、超算センター内の NVLink は GPU 間の物理的距離を制限します。そのため、分散型計算が世界中に分散している場合、計算クラスターを形成して大規模モデルのトレーニングを行うことは難しくなります。

しかし一方で、計算要求が比較的低いニーズは実現可能です。たとえば、AI 推論や特定のシーンにおける中小型モデルのトレーニングは実現可能であり、分散型計算ネットワークには相対的に大きなノードサービスプロバイダーが存在し、これらの相対的に大きな計算要求にサービスを提供できる可能性があります。また、レンダリングのようなエッジコンピューティングのシーンも比較的容易に実現できます。

4)分散型アルゴリズムモデルの最終的な姿はどのようなものになるでしょうか?
分散型アルゴリズムモデルの最終的な姿は、未来の AI の最終的な姿に依存します。私は、未来の AI 戦争は 1〜2 のクローズドソースモデルの巨頭(たとえば ChatGPT)と、多様なモデルが共存する形になると考えています。このような背景の中で、アプリケーション層の製品は大規模モデルに依存する必要がなく、複数の大規模モデルと協力することができます。このような観点から見ると、Bittensor のモデルには非常に大きな潜在能力があります。

AI+Web3 の結合は粗雑であり、1+1>2 を実現していない#

現在、Web3 と AI の結合プロジェクト、特に AI が Web3 を支援するプロジェクトの大多数は、AI を表面的に使用しているだけであり、AI と暗号通貨の深い結合を実現していません。この表面的な応用は、以下の 2 つの側面に現れています。
まず、AI を利用したデータ分析や予測、推薦や検索シーンでの AI の使用、またはコード監査において、Web2 プロジェクトと AI の結合には大きな違いがありません。これらのプロジェクトは単に AI を利用して効率を向上させ、分析を行っているだけであり、AI と暗号通貨の原生的な融合や革新的な解決策を示していません。
次に、多くの Web3 チームと AI の結合は、マーケティングの観点から純粋に AI の概念を利用していることが多いです。彼らは非常に限られた領域で AI 技術を活用し、AI のトレンドを宣伝し、プロジェクトと AI が密接に関連しているという幻想を作り出しています。しかし、真の革新の観点から見ると、これらのプロジェクトには大きな空白が存在します。
現在の Web3 と AI プロジェクトにはこれらの限界が存在しますが、これは単に発展の初期段階であることを認識する必要があります。未来には、AI と暗号通貨のより深い結合を実現し、金融、分散型自治組織、予測市場、NFT などの分野でより原生的で意味のある解決策を生み出すことが期待されます。

トークン経済学が AI プロジェクトの物語の緩衝剤となる#

最初に述べた AI プロジェクトのビジネスモデルの難題のように、ますます多くの大規模モデルが徐々にオープンソース化されているため、現在の多くの AI+Web3 プロジェクトは、純粋な AI プロジェクトが Web2 で発展し、資金調達するのが難しいため、Web3 の物語とトークン経済学を重ねてユーザーの参加を促進することが多くなっています。

しかし、トークン経済学の統合が AI プロジェクトの実際のニーズを解決するのに本当に役立つのか、それとも単なる物語や短期的な価値の追求に過ぎないのかは、疑問符がつきます。

現在、大部分の AI+Web3 プロジェクトはまだ実用的な段階には達しておらず、実際のニーズシーンを満たすだけでなく、より実質的でアイデアのあるチームがトークンを AI プロジェクトのプロモーションの一環としてだけでなく、実際のニーズを満たすために活用できることを期待しています。

まとめ#

現在、AI+Web3 のプロジェクトには多くの事例やアプリケーションが登場しています。まず、AI 技術は Web3 に対してより効率的でインテリジェントなアプリケーションシーンを提供できます。AI のデータ分析と予測能力を通じて、Web3 のユーザーは投資決定などのシーンでより良いツールを持つことができます。また、AI はスマートコントラクトコードを監査し、スマートコントラクトの実行プロセスを最適化し、ブロックチェーンの性能と効率を向上させることができます。同時に、AI 技術は分散型アプリケーションに対してより正確でインテリジェントな推薦やパーソナライズサービスを提供し、ユーザー体験を向上させます。

一方で、Web3 の分散型とプログラム可能性の特徴は、AI 技術の発展に新たな機会を提供します。トークンインセンティブの方法を通じて、分散型計算のプロジェクトは AI の計算能力供給不足の課題に新たな解決策を提供し、Web3 のスマートコントラクトや分散ストレージメカニズムは AI アルゴリズムの共有とトレーニングにより広範な空間とリソースを提供します。Web3 のユーザー自治と信頼メカニズムは、AI の発展に新たな可能性をもたらし、ユーザーはデータ共有やトレーニングに自主的に参加することで、データの多様性と質を向上させ、AI モデルの性能と正確性をさらに改善します。

現在の AI+Web3 の交差プロジェクトはまだ初期段階にあり、多くの困難に直面していますが、多くの利点ももたらしています。たとえば、分散型計算製品にはいくつかの欠点がありますが、中央集権的な機関への依存を減らし、より大きな透明性と監査可能性を提供し、より広範な参加と革新を実現することができます。特定の使用ケースやユーザーのニーズに対して、分散型計算製品は価値のある選択肢となる可能性があります。データ収集の面でも、分散型データ収集プロジェクトは、単一のデータソースへの依存を減らし、より広範なデータカバレッジを提供し、データの多様性と包摂性を促進するなどの利点をもたらします。実践の中で、これらの利点と欠点を天秤にかけ、適切な管理と技術的措置を講じて課題を克服し、分散型データ収集プロジェクトが AI の発展に積極的な影響を与えることを確保する必要があります。

総じて、AI+Web3 の融合は、未来の技術革新と経済発展に無限の可能性を提供します。AI のインテリジェントな分析と意思決定能力を Web3 の分散型とユーザー自治と組み合わせることで、未来にはよりインテリジェントで、よりオープンで、より公正な経済や社会システムを構築できると信じています。

参考資料#

https://docs.bewater.xyz/zh/aixcrypto/
https://medium.com/@ModulusLabs
https://docs.bewater.xyz/zh/aixcrypto/chapter2.html#_3-4-4-%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD%E6%8A%80%E6%9C%AF%E5%BC%80%E6%BA%90%E7%9A%84%E9%97%AE%E9%A2%98
https://docs.bewater.xyz/zh/aixcrypto/chapter4.html#_1-2-1-%E6%95%B0%E6%8D%AE
https://mirror.xyz/lukewasm.eth/LxhWgl-vaAoM3s_i9nCP8AxlfcLvTKuhXayBoEr00mA
https://www.galaxy.com/insights/research/understanding-intersection-crypto-ai/
https://www.theblockbeats.info/news/48410?search=1
https://www.theblockbeats.info/news/48758?search=1
https://www.theblockbeats.info/news/49284?search=1
https://www.theblockbeats.info/news/50419?search=1
https://www.theblockbeats.info/news/50464?search=1
https://www.theblockbeats.info/news/50814?search=1
https://www.theblockbeats.info/news/51165?search=1
https://www.theblockbeats.info/news/51099?search=1
https://www.techflowpost.com/article/detail_16418.html
https://blog.invgate.com/chatgpt-statistics
https://www.windowscentral.com/hardware/computers-desktops/chatgpt-may-need-30000-nvidia-gpus-should-pc-gamers-be-worried
https://www.trendforce.com/presscenter/news/20230301-11584.html
https://www.linkedin.com/pulse/great-gpu-shortage-richpoor-chris-zeoli-5cs5c/
https://www.semianalysis.com/p/google-gemini-eats-the-world-gemini
https://news.marsbit.co/20230613141801035350.html
https://medium.com/@taofinney/bittensor-tao-a-beginners-guide-eb9ee8e0d1a4
https://www.hk01.com/%E7%B6%B2%E7%A7%91%E3%80%8CWeb3.0%E3%80%8D%E6%8A%80%E8%A1%93%E5%A0%86%E6%A3%A8%E5%BB%BA%E5%9C%8B%E5%9C%8B%E5%AE%9A%E5%8D%8A%E5%9C%8B%E5%9C%8B%E5%AE%9A%E5%8D%8A%E5%9C%8B%E5%9C%8B%E5%AE%9A%E5%8D%8A%E5%9C%8B%E5%9C%8B%E5%AE%9A%E5%8D%8A%E5%9C%8B%E5%9C%8B%E5%AE%9A%E5%8D%8A%E5%9C%8B%E5%9C%8B%E5%AE%9A%E5%8D%8A%E5%9C%8B%E5%9C%8B%E5%AE%9A%E5%8D%8A%E5%9C%8B%E5%9C%8B%E5%AE%9A%E5%8D%8A%E5%9C%8B%E5%9C%8B%E5%AE%9A%E5%8D%8A%E5%9C%8B%E5%9C%8B%E5%AE%9A%E5%8D%8A%E5%9C%8B%E5%9C%8B%E5%AE%9A%E5%8D%8A%E5%9C%8B%E5%9C%8B%E5%AE%9A%E5%8D%8A%E5%9C%8B%E5%9C%8B%E5%AE%9A%E5%8D%8A%E5%9C%8B%E5%9C%8B%E5%AE%9A%E5%8D%8A%E5%9C%8B%E5%9C%8B%E5%AE%9A%E5%8D%8A%E5%9C%8B%E5%9C%8B%E5%AE%9A%E5%8D%8A%E5%9C%8B%E5%9C%8B%E5%AE%9A%E5%8D%8A%E5%9C%8B%E5%9C%8B%E5%AE%9A%E5%8D%8A%E5%9C%8B%E5%9C%8B%E5%AE%9A%E5%8D%8A%E5%9C%8B%E5%9C%8B%E5%AE%9A%E5%8D%8A%E5%9C%8B%E5%9C%8B%E5%AE%9A%E5%8D%8A%E5%9C%8B%E5%9C%8B%E5%AE%9A%E5%8D%8A%E5%9C%8B%E5%9C%8B%E5%AE%9A%E5%8D%8A%E5%9C%8B%E5%9C%8B%E5%AE%9A%E5%8D%8A%E5%9C%8B%E5%9C%8B%E5%AE%9A%E5%8D%8A%E5%9C%8B%E5%9C%8B%E5%AE%9A%E5%8D%8A%E5%9C%8B%E5%9C%8B%E5%AE%9A%E5%8D%8A%E5%9C%8B%E5%9C%8B%E5%AE%9A%E5%8D%8A%E5%9C%8B%E5%9C%8B%E5%AE%9A%E5%8D%8A%E5%9C%8B%E5%9C%8B%E5%AE%9A%E5%8D%8A%E5%9C%8B%E5%9C%8B%E5%AE%9A%E5%8D%8A%E5%9C%8B%E5%9C%8B%E5%AE%9A%E5%8D%8A%E5%9C%8B%E5%9C%8B%E5%AE%9A%E5%8D%8A%E5%9C%8B%E5%9C%8B%E5%AE%9A%E5%8D%8A%E5%9C%

読み込み中...
文章は、創作者によって署名され、ブロックチェーンに安全に保存されています。