# AI+Web3: タワーとプラザ## TL; 博士1. AIコンセプトのWeb3プロジェクトが、一次市場と二次市場で資金を集めるターゲットとなっています。2. Web3におけるAI業界の機会は、分散型インセンティブを使用してロングテールの潜在的な供給を調整することに現れています——データ、ストレージ、計算を横断しながら、オープンソースモデルおよびAIエージェントの分散型市場を構築します。3. AIはWeb3業界で主にオンチェーン金融(暗号支払い、取引、データ分析)および開発支援に使用されます。4. AI+Web3の有用性は両者の相補性に現れます: Web3はAIの集中化に対抗することが期待され、AIはWeb3の壁を破る手助けをすることが期待されています。! [AI+Web3: タワー&プラザ](https://img-cdn.gateio.im/social/moments-25bce79fdc74e866d6663cf31b15ee55)## はじめにここ2年、AIの発展は加速されたかのようで、Chatgptが引き起こしたバタフライ効果は、生成的人工知能の新しい世界を切り開いただけでなく、Web3分野でも大きな波を引き起こしました。AIの概念の後押しを受けて、加速が鈍化している暗号市場での資金調達は明らかに改善されています。統計によれば、2024年上半期には64件のWeb3+AIプロジェクトが資金調達を完了し、人工知能に基づくオペレーティングシステムZyber365はAラウンドで1億ドルの最高資金調達額を達成しました。二級市場はさらに繁栄しており、暗号集約サイトCoingeckoのデータによると、わずか1年余りでAI分野の総市場価値は485億ドルに達し、24時間の取引量は8600万ドルに近づいています。主流AI技術の進展から得られる好材料は明らかで、OpenAIのSoraテキストから動画へのモデルが発表された後、AIセクターの平均価格は151%上昇しました。AIの効果は、暗号通貨の資金を引き寄せるセクターの一つであるMemeにも同様に波及しています。初のAIエージェント概念のMemeCoinであるGOATは急速に人気を博し、14億ドルの評価額を獲得し、AI Memeブームを成功裏に巻き起こしました。AI+Web3に関する研究や話題も同様に盛り上がっており、AI+DepinからAI Memecoin、さらに現在のAIエージェントやAI DAOに至るまで、FOMOの感情は新しいストーリーの回転速度についていけなくなっています。AI+Web3、この熱い資金、トレンド、未来の幻想に満ちた用語の組み合わせは、資本によって仲介された結婚と見なされがちで、私たちはこの華やかなローブの下で、果たして投機家の主場なのか、それとも夜明けの爆発の前夜なのかを見分けることが難しいようです。この質問に答えるために、双方にとって重要な考察は、相手がいることでより良くなるのか?相手のパターンから利益を得ることができるのか?この記事では、先人の肩に立ってこの構造を考察しようとしています:Web3はAI技術スタックの各段階でどのように機能し、AIはWeb3にどのような新しい活力をもたらすことができるのでしょうか?## Part.1 AIスタック下のWeb3にはどのような機会があるか?このトピックを展開する前に、AI大規模モデルの技術スタックを理解する必要があります:! [AI+Web3:タワー&スクエア](https://img-cdn.gateio.im/social/moments-cc3bf45e321f9b1d1280bf3bb827d9f4)より分かりやすい言葉で全体のプロセスを表現します:「大モデル」は人間の脳のようなもので、初期段階ではこの脳は生まれたばかりの赤ちゃんに属し、周囲の膨大な情報を観察し、取り入れることでこの世界を理解する必要があります。これがデータの「収集」段階です。コンピュータは人間の視覚や聴覚などの感覚を持っていないため、訓練前には外部の大規模な無ラベル情報を「前処理」して、コンピュータが理解できるかつ利用可能な情報形式に変換する必要があります。データを入力した後、AIは「トレーニング」によって理解と予測能力を持つモデルを構築します。これは、赤ちゃんが外界を理解し学ぶ過程に似ています。モデルのパラメータは、赤ちゃんが学ぶ過程で絶えず調整される言語能力のようなものです。学ぶ内容が専門化し始めたり、人と交流してフィードバックを得て修正が行われると、大モデルの「ファインチューニング」段階に入ります。子供は成長し、話すことを学ぶと、新しい対話の中で意味を理解し、自分の感情や考えを表現できるようになります。この段階はAI大モデルの「推論」に似ており、モデルは新しい言語やテキストの入力に対して予測や分析を行うことができます。赤ちゃんは言語能力を通じて感情を表現し、物体を説明し、さまざまな問題を解決します。これは、AI大モデルが訓練を終えて使用に投入された後、推論段階でさまざまな特定のタスクに応用されることに似ています。例えば、画像分類や音声認識などです。AIエージェントは、次の大規模モデルの形態に近づいています。独立してタスクを実行し、複雑な目標を追求できるだけでなく、思考能力を持ち、記憶や計画ができ、ツールを使って世界と相互作用することが可能です。現在、AIのさまざまなスタックにおける痛点に対処するために、Web3は現在、AIモデルプロセスの各段階を網羅する多層的で相互接続されたエコシステムを初めて形成しています。### 1. 基本レイヤー: Airbnb (計算能力とデータ)#### ハッシュレート現在、AIの最高コストの一つは、モデルのトレーニングと推論に必要な計算能力とエネルギーです。一例は、MetaのLLAMA3がNVIDIA製のH100GPU(を16000個必要とすることです。これは、人工知能と高性能計算のワークロード専用に設計された最高のグラフィックスプロセッサユニットです)。訓練を完了するのに30日かかります。後者の80GBバージョンの単価は30,000ドルから40,000ドルの間であり、これには4-7億ドルの計算ハードウェア投資が必要です(GPU+ネットワークチップ)。また、毎月の訓練には16億キロワット時のエネルギーが消費され、毎月のエネルギー支出は約2000万ドルです。AIの計算力の解放は、Web3が最初にAIと交差した分野であり、DePin(の分散型物理インフラストラクチャネットワーク)です。現在、DePin Ninjaデータサイトには1400以上のプロジェクトが展示されており、その中にはGPU計算力共有を代表するプロジェクトとしてio.net、Aethir、Akash、Render Networkなどがあります。その主な論理は、プラットフォームが余剰のGPUリソースを持つ個人や団体が許可なしに分散型の方法で計算能力を提供できるようにし、UberやAirbnbのようなバイヤーと売り手のオンライン市場を通じて、未活用のGPUリソースの使用率を向上させ、最終ユーザーはより低コストで効率的な計算リソースを得ることができるというものです。同時に、ステーキングメカニズムも、品質管理メカニズムに違反したりネットワークが中断した場合に、リソース提供者に相応の罰があることを保証します。その特徴は:- 余剰のGPUリソースを集める: 供給側は主に第三者の独立した中小型データセンターや暗号マイニングファームなどのオペレーターの余剰計算リソースであり、コンセンサスメカニズムはPoSのマイニングハードウェアで、FileCoinやETHマイナーなどがあります。現在、exolabのように、MacBook、iPhone、iPadなどのローカルデバイスを利用して、より低い参入障壁のあるデバイスを立ち上げることに取り組んでいるプロジェクトもあります。- AI計算力のロングテール市場に直面して:a.「技術の観点から見ると」分散型計算力市場は推論ステップにより適しています。トレーニングは超大規模なGPUクラスターによるデータ処理能力に依存していますが、推論はGPU計算性能の相対的に低いものです。例えば、Aethirは低遅延のレンダリング作業とAI推論アプリケーションに焦点を当てています。b.「需要の観点から見ると」中小の計算能力を持つ需要者は、自らの大規模モデルを単独で訓練することはなく、少数のトップモデルを中心に最適化や微調整を行うことを選択します。これらのシナリオは、自然に分散した未使用の計算リソースに適しています。- 分散型所有権: ブロックチェーンの技術的意義は、リソースの所有者が常にそのリソースに対する制御権を保持し、需要に応じて柔軟に調整し、同時に収益を得ることができることです。#### データデータはAIの基盤です。データがなければ、計算は浮草のように無意味であり、データとモデルとの関係は「Garbage in, Garbage out」という俗語のようです。データの量と入力の質は、最終的なモデルの出力の質を決定します。現在のAIモデルの訓練において、データはモデルの言語能力、理解能力、さらには価値観や人間性の表現を決定します。現在、AIのデータ需要の困難は主に以下の四つの側面に集中しています:- データ飢餓:AIモデルのトレーニングは大量のデータ入力に依存しています。公開された資料によると、OpenAIはGPT-4のパラメータ数を兆のレベルに達しました。- データ品質: AIと各業界の結合に伴い、データのタイムリーさ、データの多様性、垂直データの専門性、ソーシャルメディアの感情などの新興データソースの取り入れが、その品質に新たな要求を突きつけています。- プライバシーとコンプライアンスの問題: 現在、各国や企業は高品質なデータセットの重要性に徐々に気づいており、データセットのスクレイピングに制限をかけ始めています。- データ処理コストが高い: データ量が多く、処理プロセスが複雑です。公開された資料によると、AI企業の30%以上の研究開発コストは基礎データの収集と処理に使用されています。現在、web3のソリューションは以下の四つの側面に現れています:1. データ収集: 無料で取得できる実世界データが急速に枯渇しており、AI企業のデータへの支出は年々増加しています。しかし同時に、この支出はデータの真の貢献者に還元されておらず、プラットフォームはデータによる価値創造を完全に享受しています。真に貢献するユーザーがデータにもたらす価値創造に参加し、分散型ネットワークとインセンティブメカニズムを通じて、低コストでユーザーのよりプライベートで価値のあるデータを取得することがWeb3のビジョンです。- Grassは、ユーザーがGrassノードを実行することで、余剰帯域幅と中継トラフィックを提供し、インターネット全体からリアルタイムデータをキャッチし、トークン報酬を得るための分散型データ層およびネットワークです。- Vanaは独自のデータ流動性プール(DLP)の概念を導入し、ユーザーは自分のプライベートデータ(、例えば購買履歴、閲覧習慣、ソーシャルメディア活動など)を特定のDLPにアップロードし、これらのデータを特定の第三者に使用を許可するかどうかを柔軟に選択できます;- PublicAIでは、ユーザーはX上で#AI或#Web3を分類タグとして使用し、@PublicAIを指定することでデータ収集を実現できます。2. データ前処理: AIのデータ処理プロセスにおいて、収集されたデータは通常ノイズが多く、エラーを含んでいるため、モデルを訓練する前にクリーンアップし、使用可能な形式に変換する必要があります。これには、標準化、フィルタリング、欠損値の処理といった繰り返しの作業が含まれます。この段階はAI業界の数少ない人手がかかる部分であり、データアノテーターという職業が生まれました。モデルがデータの質に対する要求を高めるにつれて、データアノテーターのハードルも引き上げられ、この作業はWeb3の分散型インセンティブメカニズムに自然に適しています。- 現在、GrassとOpenLayerはデータ注釈という重要なプロセスの追加を検討しています。- Synesisは「Train2earn」の概念を提唱し、データの質を強調しています。ユーザーは、アノテーションデータ、コメント、または他の形式の入力を提供することで報酬を得ることができます。- データラベリングプロジェクトSapienはラベリングタスクをゲーム化し、ユーザーがポイントをステークしてより多くのポイントを獲得できるようにします。3. データプライバシーとセキュリティ:明確にする必要があるのは、データプライバシーとセキュリティは二つの異なる概念です。データプライバシーはセンシティブデータの処理に関わり、データセキュリティはデータ情報を不正なアクセス、破壊、盗難から保護します。これにより、Web3プライバシー技術の利点と潜在的なアプリケーションシナリオは二つの側面に現れます:(1)センシティブデータのトレーニング;(2)データコラボレーション:複数のデータ所有者が元のデータを共有することなくAIトレーニングに共同で参加できます。現在のWeb3で一般的なプライバシー技術には、- Trusted Execution Environment (TEE) (Super Protocol など)- BasedAI、Fhenix.io、Inco Networkなどの完全準同型暗号化(FHE)。- ゼロ知識技術(zk)、Reclaim Protocolのように、zkTLS技術を使用してHTTPSトラフィックのゼロ知識証明を生成し、ユーザーが外部サイトから活動、評判、アイデンティティデータを安全にインポートできるようにし、機密情報を開示することなく行います。しかし、現在この分野はまだ初期段階にあり、大部分のプロジェクトはまだ探索中です。現在の一つの課題は計算コストが高すぎることで、いくつかの例は次の通りです:- zkMLフレームワークEZKLは、1M-nanoGPTモデルの証明を生成するのに約80分かかります。- Modulus Labsのデータによると、zkMLのオーバーヘッドは純計算の1000倍以上です。4. データストレージ:データが得られた後、チェーン上にデータを保存する場所と、そのデータを使用して生成されたLLMが必要です。データの可用性(DA)を核心問題として、イーサリアムのDankshardingアップグレード前のスループットは0.08MBでした。同時に、AIモデルのトレーニングとリアルタイム推論は通常、毎秒50から100GBのデータスループットを必要とします。このオーダーの差は、既存のチェーン上のソリューションが「リソース集約型のAIアプリケーション」に直面する際に限界を示しています。- 0g.AIはこのカテゴリーの代表的なプロジェクトです。それは、
AI+Web3の融合は不可逆的です:コンピューティングパワーの共有からデータインセンティブへの新しいパターンへ
AI+Web3: タワーとプラザ
TL; 博士
AIコンセプトのWeb3プロジェクトが、一次市場と二次市場で資金を集めるターゲットとなっています。
Web3におけるAI業界の機会は、分散型インセンティブを使用してロングテールの潜在的な供給を調整することに現れています——データ、ストレージ、計算を横断しながら、オープンソースモデルおよびAIエージェントの分散型市場を構築します。
AIはWeb3業界で主にオンチェーン金融(暗号支払い、取引、データ分析)および開発支援に使用されます。
AI+Web3の有用性は両者の相補性に現れます: Web3はAIの集中化に対抗することが期待され、AIはWeb3の壁を破る手助けをすることが期待されています。
! AI+Web3: タワー&プラザ
はじめに
ここ2年、AIの発展は加速されたかのようで、Chatgptが引き起こしたバタフライ効果は、生成的人工知能の新しい世界を切り開いただけでなく、Web3分野でも大きな波を引き起こしました。
AIの概念の後押しを受けて、加速が鈍化している暗号市場での資金調達は明らかに改善されています。統計によれば、2024年上半期には64件のWeb3+AIプロジェクトが資金調達を完了し、人工知能に基づくオペレーティングシステムZyber365はAラウンドで1億ドルの最高資金調達額を達成しました。
二級市場はさらに繁栄しており、暗号集約サイトCoingeckoのデータによると、わずか1年余りでAI分野の総市場価値は485億ドルに達し、24時間の取引量は8600万ドルに近づいています。主流AI技術の進展から得られる好材料は明らかで、OpenAIのSoraテキストから動画へのモデルが発表された後、AIセクターの平均価格は151%上昇しました。AIの効果は、暗号通貨の資金を引き寄せるセクターの一つであるMemeにも同様に波及しています。初のAIエージェント概念のMemeCoinであるGOATは急速に人気を博し、14億ドルの評価額を獲得し、AI Memeブームを成功裏に巻き起こしました。
AI+Web3に関する研究や話題も同様に盛り上がっており、AI+DepinからAI Memecoin、さらに現在のAIエージェントやAI DAOに至るまで、FOMOの感情は新しいストーリーの回転速度についていけなくなっています。
AI+Web3、この熱い資金、トレンド、未来の幻想に満ちた用語の組み合わせは、資本によって仲介された結婚と見なされがちで、私たちはこの華やかなローブの下で、果たして投機家の主場なのか、それとも夜明けの爆発の前夜なのかを見分けることが難しいようです。
この質問に答えるために、双方にとって重要な考察は、相手がいることでより良くなるのか?相手のパターンから利益を得ることができるのか?この記事では、先人の肩に立ってこの構造を考察しようとしています:Web3はAI技術スタックの各段階でどのように機能し、AIはWeb3にどのような新しい活力をもたらすことができるのでしょうか?
Part.1 AIスタック下のWeb3にはどのような機会があるか?
このトピックを展開する前に、AI大規模モデルの技術スタックを理解する必要があります:
! AI+Web3:タワー&スクエア
より分かりやすい言葉で全体のプロセスを表現します:「大モデル」は人間の脳のようなもので、初期段階ではこの脳は生まれたばかりの赤ちゃんに属し、周囲の膨大な情報を観察し、取り入れることでこの世界を理解する必要があります。これがデータの「収集」段階です。コンピュータは人間の視覚や聴覚などの感覚を持っていないため、訓練前には外部の大規模な無ラベル情報を「前処理」して、コンピュータが理解できるかつ利用可能な情報形式に変換する必要があります。
データを入力した後、AIは「トレーニング」によって理解と予測能力を持つモデルを構築します。これは、赤ちゃんが外界を理解し学ぶ過程に似ています。モデルのパラメータは、赤ちゃんが学ぶ過程で絶えず調整される言語能力のようなものです。学ぶ内容が専門化し始めたり、人と交流してフィードバックを得て修正が行われると、大モデルの「ファインチューニング」段階に入ります。
子供は成長し、話すことを学ぶと、新しい対話の中で意味を理解し、自分の感情や考えを表現できるようになります。この段階はAI大モデルの「推論」に似ており、モデルは新しい言語やテキストの入力に対して予測や分析を行うことができます。赤ちゃんは言語能力を通じて感情を表現し、物体を説明し、さまざまな問題を解決します。これは、AI大モデルが訓練を終えて使用に投入された後、推論段階でさまざまな特定のタスクに応用されることに似ています。例えば、画像分類や音声認識などです。
AIエージェントは、次の大規模モデルの形態に近づいています。独立してタスクを実行し、複雑な目標を追求できるだけでなく、思考能力を持ち、記憶や計画ができ、ツールを使って世界と相互作用することが可能です。
現在、AIのさまざまなスタックにおける痛点に対処するために、Web3は現在、AIモデルプロセスの各段階を網羅する多層的で相互接続されたエコシステムを初めて形成しています。
1. 基本レイヤー: Airbnb (計算能力とデータ)
ハッシュレート
現在、AIの最高コストの一つは、モデルのトレーニングと推論に必要な計算能力とエネルギーです。
一例は、MetaのLLAMA3がNVIDIA製のH100GPU(を16000個必要とすることです。これは、人工知能と高性能計算のワークロード専用に設計された最高のグラフィックスプロセッサユニットです)。訓練を完了するのに30日かかります。後者の80GBバージョンの単価は30,000ドルから40,000ドルの間であり、これには4-7億ドルの計算ハードウェア投資が必要です(GPU+ネットワークチップ)。また、毎月の訓練には16億キロワット時のエネルギーが消費され、毎月のエネルギー支出は約2000万ドルです。
AIの計算力の解放は、Web3が最初にAIと交差した分野であり、DePin(の分散型物理インフラストラクチャネットワーク)です。現在、DePin Ninjaデータサイトには1400以上のプロジェクトが展示されており、その中にはGPU計算力共有を代表するプロジェクトとしてio.net、Aethir、Akash、Render Networkなどがあります。
その主な論理は、プラットフォームが余剰のGPUリソースを持つ個人や団体が許可なしに分散型の方法で計算能力を提供できるようにし、UberやAirbnbのようなバイヤーと売り手のオンライン市場を通じて、未活用のGPUリソースの使用率を向上させ、最終ユーザーはより低コストで効率的な計算リソースを得ることができるというものです。同時に、ステーキングメカニズムも、品質管理メカニズムに違反したりネットワークが中断した場合に、リソース提供者に相応の罰があることを保証します。
その特徴は:
余剰のGPUリソースを集める: 供給側は主に第三者の独立した中小型データセンターや暗号マイニングファームなどのオペレーターの余剰計算リソースであり、コンセンサスメカニズムはPoSのマイニングハードウェアで、FileCoinやETHマイナーなどがあります。現在、exolabのように、MacBook、iPhone、iPadなどのローカルデバイスを利用して、より低い参入障壁のあるデバイスを立ち上げることに取り組んでいるプロジェクトもあります。
AI計算力のロングテール市場に直面して:
a.「技術の観点から見ると」分散型計算力市場は推論ステップにより適しています。トレーニングは超大規模なGPUクラスターによるデータ処理能力に依存していますが、推論はGPU計算性能の相対的に低いものです。例えば、Aethirは低遅延のレンダリング作業とAI推論アプリケーションに焦点を当てています。
b.「需要の観点から見ると」中小の計算能力を持つ需要者は、自らの大規模モデルを単独で訓練することはなく、少数のトップモデルを中心に最適化や微調整を行うことを選択します。これらのシナリオは、自然に分散した未使用の計算リソースに適しています。
データ
データはAIの基盤です。データがなければ、計算は浮草のように無意味であり、データとモデルとの関係は「Garbage in, Garbage out」という俗語のようです。データの量と入力の質は、最終的なモデルの出力の質を決定します。現在のAIモデルの訓練において、データはモデルの言語能力、理解能力、さらには価値観や人間性の表現を決定します。現在、AIのデータ需要の困難は主に以下の四つの側面に集中しています:
データ飢餓:AIモデルのトレーニングは大量のデータ入力に依存しています。公開された資料によると、OpenAIはGPT-4のパラメータ数を兆のレベルに達しました。
データ品質: AIと各業界の結合に伴い、データのタイムリーさ、データの多様性、垂直データの専門性、ソーシャルメディアの感情などの新興データソースの取り入れが、その品質に新たな要求を突きつけています。
プライバシーとコンプライアンスの問題: 現在、各国や企業は高品質なデータセットの重要性に徐々に気づいており、データセットのスクレイピングに制限をかけ始めています。
データ処理コストが高い: データ量が多く、処理プロセスが複雑です。公開された資料によると、AI企業の30%以上の研究開発コストは基礎データの収集と処理に使用されています。
現在、web3のソリューションは以下の四つの側面に現れています:
真に貢献するユーザーがデータにもたらす価値創造に参加し、分散型ネットワークとインセンティブメカニズムを通じて、低コストでユーザーのよりプライベートで価値のあるデータを取得することがWeb3のビジョンです。
Grassは、ユーザーがGrassノードを実行することで、余剰帯域幅と中継トラフィックを提供し、インターネット全体からリアルタイムデータをキャッチし、トークン報酬を得るための分散型データ層およびネットワークです。
Vanaは独自のデータ流動性プール(DLP)の概念を導入し、ユーザーは自分のプライベートデータ(、例えば購買履歴、閲覧習慣、ソーシャルメディア活動など)を特定のDLPにアップロードし、これらのデータを特定の第三者に使用を許可するかどうかを柔軟に選択できます;
PublicAIでは、ユーザーはX上で#AI或#Web3を分類タグとして使用し、@PublicAIを指定することでデータ収集を実現できます。
現在、GrassとOpenLayerはデータ注釈という重要なプロセスの追加を検討しています。
Synesisは「Train2earn」の概念を提唱し、データの質を強調しています。ユーザーは、アノテーションデータ、コメント、または他の形式の入力を提供することで報酬を得ることができます。
データラベリングプロジェクトSapienはラベリングタスクをゲーム化し、ユーザーがポイントをステークしてより多くのポイントを獲得できるようにします。
現在のWeb3で一般的なプライバシー技術には、
Trusted Execution Environment (TEE) (Super Protocol など)
BasedAI、Fhenix.io、Inco Networkなどの完全準同型暗号化(FHE)。
ゼロ知識技術(zk)、Reclaim Protocolのように、zkTLS技術を使用してHTTPSトラフィックのゼロ知識証明を生成し、ユーザーが外部サイトから活動、評判、アイデンティティデータを安全にインポートできるようにし、機密情報を開示することなく行います。
しかし、現在この分野はまだ初期段階にあり、大部分のプロジェクトはまだ探索中です。現在の一つの課題は計算コストが高すぎることで、いくつかの例は次の通りです:
zkMLフレームワークEZKLは、1M-nanoGPTモデルの証明を生成するのに約80分かかります。
Modulus Labsのデータによると、zkMLのオーバーヘッドは純計算の1000倍以上です。