OpenLedger: データ駆動型で、モデルを組み合わせ可能なインテリジェントエコノミーインフラを構築する

OpenLedgerデプス研報:OP Stack+EigenDAを基盤に、データ駆動型でモデル可コンビネーションのエージェント経済を構築する

I. はじめに | Crypto AIのモデルレイヤージャンプ

データ、モデルと算力は AI インフラの三大コア要素であり、燃料(データ)、エンジン(モデル)、エネルギー(算力)が欠かせません。従来の AI 業界のインフラ進化パスに類似して、Crypto AI 分野も同様の段階を経てきました。2024 年初頭、市場は一時的に分散型 GPU プロジェクトに主導され、「算力を競い合う」という粗放な成長論理が強調されました。しかし、2025 年に入ると、業界の関心は次第にモデルとデータ層に移り、Crypto AI が底層リソース競争からより持続可能で応用価値のある中層構築へと移行していることを示しています。

General Large Model(LLM)とSpecialized Model(SLM)

従来の大規模言語モデル(LLM)の訓練は、大規模なデータセットと複雑な分散アーキテクチャに高度に依存しており、パラメータの規模は70B~500Bに達することが多く、1回の訓練コストは数百万ドルに上ることが一般的です。一方、SLM(Specialized Language Model)は、再利用可能な基盤モデルの軽量微調整のパラダイムとして、通常はオープンソースモデルをベースにし、少量の高品質な専門データやLoRAなどの技術を組み合わせて、特定の領域知識を持つ専門モデルを迅速に構築し、訓練コストと技術的ハードルを大幅に低減します。

注目すべきは、SLMはLLMの重みには統合されず、エージェントアーキテクチャの呼び出し、プラグインシステムの動的ルーティング、LoRAモジュールのホットプラグ、RAG(検索強化生成)などの方法でLLMと協調して実行されることです。このアーキテクチャはLLMの広範なカバレッジ能力を保持しつつ、ファインチューニングモジュールによって専門的なパフォーマンスを強化し、高度に柔軟なコンビナトリアルインテリジェンスシステムを形成しています。

Crypto AI のモデル層における価値と境界

Crypto AI プロジェクトは本質的に大規模言語モデル(LLM)の核心能力を直接向上させることが難しい。その核心的な理由は:

  • 技術的なハードルが高すぎる:Foundation Model を訓練するために必要なデータ規模、計算リソース、エンジニアリング能力は非常に巨大であり、現在はアメリカや中国などのテクノロジー大手のみがその能力を持っている。
  • オープンソースエコシステムの限界:主流の基礎モデルはすでにオープンソース化されていますが、モデルの突破を推進する鍵は依然として研究機関とクローズドエンジニアリングシステムに集中しており、チェーン上のプロジェクトはコアモデル層への参加の余地が限られています。

しかし、オープンソースの基盤モデルの上に、Crypto AIプロジェクトは、特化型言語モデル(SLM)をファインチューニングし、Web3の検証可能性とインセンティブメカニズムを組み合わせることで価値の拡張を実現できます。AI産業チェーンの「周辺インターフェース層」として、2つのコア方向に現れます:

  • 信頼できる検証レイヤー:オンチェーンでモデル生成の経路、データの貢献と使用状況を記録することで、AIの出力のトレーサビリティと改ざん耐性を強化します。
  • インセンティブメカニズム:ネイティブトークンを利用して、データアップロード、モデル呼び出し、エージェント(Agent)実行などの行動を奨励し、モデルのトレーニングとサービスの正の循環を構築します。

AIモデルタイプ分類とブロックチェーンの適用性分析

これにより、モデル型のCrypto AIプロジェクトの実行可能な落ち着きは、主に小型SLMの軽量化微調整、RAGアーキテクチャのチェーン上データ接続と検証、さらにEdgeモデルのローカルデプロイとインセンティブに集中していることがわかります。ブロックチェーンの検証可能性とトークンメカニズムを組み合わせることで、Cryptoはこれらの中・低リソースモデルシナリオに特有の価値を提供し、AI「インターフェース層」の差別化された価値を形成します。

データとモデルに基づくブロックチェーン AI チェーンは、各データとモデルの貢献の出所を明確かつ改ざん不可能な形でブロックチェーンに記録し、データの信頼性とモデルのトレーニングの追跡可能性を大幅に向上させます。また、スマートコントラクトメカニズムを通じて、データやモデルが呼び出されると自動的に報酬分配がトリガーされ、AI の行動を測定可能で取引可能なトークン化された価値に変換し、持続可能なインセンティブ体系を構築します。さらに、コミュニティのユーザーはトークン投票を通じてモデルの性能を評価し、ルールの策定と改訂に参加し、分散型ガバナンス構造を改善することができます。

! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-62B3FA1E810F4772AABA3D91C74C1AA6)

二、プロジェクト概要 | OpenLedgerのAIチェーンビジョン

OpenLedgerは現在の市場で数少ない、データとモデルのインセンティブメカニズムに特化したブロックチェーンAIプロジェクトです。彼らは「Payable AI」の概念を初めて提唱し、公平で透明かつコンポーザブルなAI運用環境を構築することを目指しています。データ貢献者、モデル開発者、AIアプリケーション構築者が同じプラットフォームで協力し、実際の貢献に基づいてチェーン上の収益を得ることを促進します。

OpenLedgerは「データ提供」から「モデルデプロイメント」、さらには「呼び出し分配」に至る全体のチェーンループを提供しており、そのコアモジュールには次が含まれます:

  • モデルファクトリー:プログラミング不要で、オープンソースLLMに基づいてLoRA微調整トレーニングを行い、カスタムモデルをデプロイできます;
  • OpenLoRA:千のモデルの共存をサポートし、必要に応じて動的にロードし、デプロイコストを大幅に削減します;
  • PoA(Proof of Attribution):コントリビューションの測定と報酬の分配は、オンチェーンの通話記録を通じて実現されます。
  • Datanets:垂直型シーンに特化した構造化データネットワークで、コミュニティによって協力して構築・検証されます;
  • モデル提案プラットフォーム(Model Proposal Platform):組み合わせ可能、呼び出し可能、支払い可能なオンチェーンモデルマーケット。

上記のモジュールを通じて、OpenLedgerはデータ駆動型でモデルが組み合わせ可能な「エージェント経済インフラ」を構築し、AIのバリューチェーンのチェーン上化を促進しています。

ブロックチェーン技術の採用において、OpenLedgerはOP Stack + EigenDAを基盤として、AIモデルのために高性能、低コスト、検証可能なデータと契約の実行環境を構築しました。

  • OP Stack に基づいて構築:Optimism テクノロジースタックに基づき、高スループットと低コストの実行をサポート;
  • イーサリアムメインネットでの決済:取引の安全性と資産の完全性を確保する;
  • EVM互換性:Solidityに基づいて開発者が迅速にデプロイおよび拡張するのに便利;
  • EigenDAはデータの可用性をサポートします:ストレージコストを大幅に削減し、データの検証可能性を保証します。

NEARのようなより基盤的で、データ主権と「AI Agents on BOS」アーキテクチャを主打する汎用AIチェーンに対して、OpenLedgerはデータとモデルインセンティブに特化したAI専用チェーンの構築に注力しており、モデルの開発と呼び出しをチェーン上で追跡可能、コンバイン可能、持続可能な価値のクローズドループを実現することに尽力しています。それはWeb3の世界におけるモデルインセンティブの基盤インフラストラクチャであり、モデルホスティング、使用課金、およびチェーン上でのコンバイン可能なインターフェースを組み合わせ、「モデルは資産」という実現への道を推進しています。

! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-19C2276FCCC616CCF9260FB7E35C9C24)

三、OpenLedger のコアコンポーネントと技術アーキテクチャ

3.1 モデルファクトリー、コード不要のモデルファクトリー

ModelFactory は OpenLedger エコシステム下の大型言語モデル(LLM)微調整プラットフォームです。従来の微調整フレームワークとは異なり、ModelFactory は純粋にグラフィカルインターフェース操作を提供し、コマンドラインツールや API 統合は不要です。ユーザーは OpenLedger 上で完了した認証と審査のデータセットに基づいて、モデルを微調整することができます。データの認証、モデルのトレーニング、デプロイメントの統合ワークフローを実現しており、そのコアプロセスには次が含まれます:

  • データアクセス制御: ユーザーがデータリクエストを提出し、プロバイダーが承認し、データが自動的にモデルトレーニングインターフェースに接続されます。
  • モデル選択と設定:主流の LLM をサポートし、GUI でハイパーパラメータを設定します。
  • 軽量化微調:内蔵のLoRA / QLoRAエンジンで、トレーニングの進捗をリアルタイムで表示します。
  • モデル評価とデプロイ:内蔵の評価ツール、デプロイまたはエコシステム共有呼び出しのエクスポートをサポート。
  • インタラクション検証インターフェース:チャット式のインターフェースを提供し、モデルの質問応答能力を直接テストしやすくします。
  • RAG生成トレーサビリティ:出典を引用した回答で、信頼性と監査可能性を強化します。

Model Factory システムアーキテクチャは、アイデンティティ認証、データ権限、モデル微調整、評価展開、RAG トレーサビリティを貫通する6つの主要モジュールで構成されており、安全で制御可能、リアルタイムのインタラクション、持続可能な収益化を実現する統合モデルサービスプラットフォームを構築しています。

! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-F23F47F09226573B1FCACEBDCFB8C1F3)

ModelFactory 現在サポートしている大規模言語モデルの能力の簡易表は以下の通りです:

  • LLaMAシリーズ:エコシステムが最も広く、コミュニティが活発で、汎用性能が高く、現在最も主流なオープンソース基盤モデルの一つです。
  • Mistral:アーキテクチャが効率的で、推論性能が非常に優れており、柔軟なデプロイメントやリソースが限られたシーンに適しています。
  • Qwen:中文タスクのパフォーマンスが優れており、総合的な能力が高く、国内の開発者に最適です。
  • ChatGLM:日本語の会話効果が突出しており、特定のカスタマーサービスやローカライズシーンに適しています。
  • Deepseek:コード生成と数学的推論に優れ、インテリジェントな開発支援ツールに適しています。
  • Gemma:Googleが提供する軽量モデルで、構造が明確で、迅速に習得し、実験するのが容易です。
  • Falcon:かつてはパフォーマンスのベンチマークであり、基礎研究や比較テストに適していましたが、コミュニティの活発度は減少しています。
  • BLOOM:多言語サポートが強いが、推論性能がやや弱く、言語カバレッジ型の研究に適している。
  • GPT-2:古典的初期モデルで、教育および検証目的にのみ適しており、実際の展開には推奨されません。

OpenLedgerのモデルの組み合わせには最新の高性能MoEモデルやマルチモーダルモデルは含まれていないが、その戦略は時代遅れではなく、オンチェーンデプロイの現実的な制約(推論コスト、RAG適合、LoRA互換性、EVM環境)に基づいた「実用優先」の構成がなされている。

Model Factoryはノーコードツールチェーンとして、すべてのモデルに貢献証明機構が内蔵されており、データ提供者とモデル開発者の権益を確保しています。低いハードル、収益化可能性、組み合わせ可能性の利点を持ち、従来のモデル開発ツールと比較して:

  • 開発者向け:モデルのインキュベーション、配布、収益の完全な道筋を提供します;
  • プラットフォームに対して:モデル資産の流通と組み合わせエコシステムを形成する;
  • アプリケーション利用者に対して:モデルやエージェントをAPIのように組み合わせて使用できます。

! [OpenLedger In-Depth Research Report: Building a Data-Driven, Model-Composable Agent Economy Based on OP Stack+EigenDA](https://img-cdn.gateio.im/social/ モーメント-909dc3f796ad6aa44a1c97a51ade4193)

3.2 OpenLoRA、微調整モデルのオンチェーンアセット化

LoRA(Low-Rank Adaptation)は、事前学習された大規模モデルに「低秩行列」を挿入して新しいタスクを学習することで、元のモデルのパラメータを変更せずに効率的なパラメータ微調整を行う方法です。これにより、トレーニングコストとストレージの要求を大幅に削減します。従来の大規模言語モデルは通常数十億から数百億のパラメータを持っています。それらを特定のタスクに使用するには微調整が必要です。LoRAのコア戦略は、「元の大規模モデルのパラメータを凍結し、挿入された新しいパラメータ行列のみをトレーニングする」ことです。この方法はパラメータ効率が高く、トレーニングが迅速で、デプロイが柔軟であり、現在のWeb3モデルのデプロイと組み合わせ呼び出しに最も適した主流の微調整方法です。

OpenLoRAは、OpenLedgerが構築した、複数のモデルの展開とリソース共有のために設計された軽量推論フレームワークです。その核心的な目標は、現在のAIモデルの展開において一般的な高コスト、低再利用、GPUリソースの浪費などの問題を解決し、「可支付AI」(Payable AI)の実現を推進することです。

OpenLoRA システムアーキテクチャのコアコンポーネントは、モジュール設計に基づいており、モデルストレージ、推論実行、リクエストルーティングなどの重要なプロセスをカバーしています。効率的で低コストのマルチモデルデプロイおよび呼び出し機能を実現します。

  • LoRAアダプターストレージモジュール:微調整されたLoRAアダプターはOpenLedgerにホストされ、オンデマンドでロードされるため、すべてのモデルを事前にメモリにロードすることを避け、リソースを節約します。
  • モデルホスティングとダイナミックフュージョン層:すべての微調整モデルが基盤となる大モデルを共有し、推論時にLoRAアダプターがダイナミックに統合され、複数のアダプターが共同推論をサポートし、性能を向上させます。
  • 推論エンジン:Flash-Attention、Paged-Attention、SGMV最適化など、複数のCUDA最適化技術を統合します。
  • リクエストルーティングとストリーミング出力モジュール: ルート
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • 4
  • 共有
コメント
0/400
HalfPositionRunnervip
· 07-23 04:37
社長はついに単にコンピューティングパワーを積み上げるだけではないことを理解しました。
原文表示返信0
BakedCatFanboyvip
· 07-20 14:38
またAIの話をしているのか
原文表示返信0
HalfIsEmptyvip
· 07-20 09:15
ああ、結局はBTCが飛ばすかどうかを見る必要があるね。
原文表示返信0
fren_with_benefitsvip
· 07-20 08:59
強気、彼らは皆コンピューティングパワーを巻き込んでいる 私はAIアーキテクチャを巻き込んでいる
原文表示返信0
いつでもどこでも暗号資産取引
qrCode
スキャンしてGateアプリをダウンロード
コミュニティ
日本語
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)