I. Introdução | A transição da camada de modelo do Crypto AI
Dados, modelos e poder computacional são os três principais elementos da infraestrutura de IA, comparando-se a combustível (dados), motor (modelo) e energia (poder computacional), todos indispensáveis. Assim como o caminho de evolução da infraestrutura na indústria de IA tradicional, o campo da Crypto AI também passou por fases semelhantes. No início de 2024, o mercado foi dominado por projetos de GPU descentralizados, enfatizando amplamente a lógica de crescimento extensivo de "competição de poder computacional". No entanto, ao entrar em 2025, o foco da indústria começou a se deslocar gradualmente para as camadas de modelo e dados, marcando a transição da Crypto AI de uma competição por recursos de base para uma construção de médio nível com maior sustentabilidade e valor de aplicação.
Modelo Geral (LLM) vs Modelo Especializado (SLM)
Os modelos de linguagem tradicionais de grande escala (LLM) dependem fortemente de grandes conjuntos de dados e de arquiteturas distribuídas complexas, com escalas de parâmetros variando de 70B a 500B, e o custo de um único treinamento frequentemente alcança milhões de dólares. O SLM (Modelo de Linguagem Especializado), como um paradigma de ajuste leve de um modelo básico reutilizável, é geralmente baseado em modelos de código aberto, combinando uma pequena quantidade de dados profissionais de alta qualidade e tecnologias como LoRA, para construir rapidamente modelos de especialistas com conhecimento em domínios específicos, reduzindo significativamente o custo de treinamento e a barreira técnica.
Vale a pena notar que o SLM não será integrado nos pesos do LLM, mas sim operará em colaboração com o LLM através de chamadas de arquitetura Agent, roteamento dinâmico do sistema de plugins, módulos LoRA hot-plug e RAG (Geração Aumentada por Recuperação). Esta arquitetura mantém a ampla capacidade de cobertura do LLM, enquanto melhora o desempenho especializado através de módulos de ajuste fino, formando um sistema inteligente altamente flexível e combinável.
O valor e os limites da Crypto AI no nível do modelo
Os projetos de Crypto AI, na sua essência, são difíceis de melhorar diretamente as capacidades centrais dos modelos de linguagem de grande escala (LLM), sendo a razão principal:
Barreiras tecnológicas muito elevadas: a escala de dados, os recursos computacionais e a capacidade de engenharia necessários para treinar um Modelo Fundamental são extremamente grandes, atualmente apenas gigantes tecnológicos como os EUA e a China possuem essas capacidades.
Limitações do ecossistema de código aberto: Embora os principais modelos de base tenham sido disponibilizados como código aberto, a verdadeira chave para impulsionar os avanços nos modelos ainda se concentra em instituições de pesquisa e sistemas de engenharia de código fechado, com espaço limitado para a participação de projetos em blockchain ao nível do modelo central.
No entanto, em cima de modelos de base de código aberto, os projetos de Crypto AI ainda podem estender valor através do ajuste fino de modelos de linguagem especializados (SLM), combinando a verificabilidade e os mecanismos de incentivo do Web3. Como "camada de interface periférica" da cadeia industrial de IA, isso se reflete em duas direções centrais:
Camada de validação confiável: através do registo em cadeia do caminho de geração do modelo, contribuição de dados e utilização, aumenta a rastreabilidade e a resistência à manipulação das saídas de IA.
Mecanismo de incentivo: Através do Token nativo, utilizado para incentivar o upload de dados, chamadas de modelos, execução de agentes, entre outros comportamentos, construindo um ciclo positivo de treino e serviço de modelos.
Análise de Classificação de Tipos de Modelos de IA e Aplicabilidade em Blockchain
Assim, pode-se ver que os pontos de viabilidade dos projetos de AI Crypto do tipo modelo estão principalmente concentrados na afinação leve de SLMs pequenos, na integração e verificação de dados em cadeia da arquitetura RAG, bem como na implementação local e incentivos dos modelos Edge. Combinando a verificabilidade da blockchain e o mecanismo de token, a Crypto pode oferecer um valor único para esses cenários de modelos de recursos médios a baixos, formando um valor diferenciador da "camada de interface" de AI.
Baseada em dados e modelos, a cadeia de blocos de IA pode registar de forma clara e imutável a origem das contribuições de cada dado e modelo, aumentando significativamente a credibilidade dos dados e a rastreabilidade do treinamento dos modelos. Além disso, através do mecanismo de contratos inteligentes, ao serem utilizados dados ou modelos, a distribuição de recompensas é automaticamente acionada, transformando o comportamento da IA em um valor tokenizado mensurável e negociável, construindo um sistema de incentivos sustentável. Além disso, os usuários da comunidade também podem avaliar o desempenho do modelo através de votação com tokens, participar da formulação e iteração de regras, e aprimorar a estrutura de governança descentralizada.
Dois, Visão Geral do Projeto | A visão da cadeia AI da OpenLedger
OpenLedger é um dos poucos projetos de blockchain de IA que se concentra em mecanismos de incentivo para dados e modelos no mercado atual. Ele foi o primeiro a propor o conceito de "Payable AI", com o objetivo de construir um ambiente de funcionamento de IA justo, transparente e combinável, incentivando colaboradores de dados, desenvolvedores de modelos e construtores de aplicações de IA a colaborarem na mesma plataforma e a obterem收益 na cadeia com base nas contribuições reais.
OpenLedger oferece um ciclo completo da «fornecimento de dados» até «implantação de modelos» e «chamada de distribuição de lucros», cujos módulos principais incluem:
Fábrica de Modelos: sem necessidade de programação, é possível usar LoRA para ajustar, treinar e implantar modelos personalizados com base em LLM de código aberto;
OpenLoRA: suporta a coexistência de mil modelos, carregamento dinâmico conforme necessário, reduzindo significativamente os custos de implementação;
PoA (Prova de Atribuição): medir a contribuição e distribuir recompensas através do registro de chamadas on-chain;
Datanets: redes de dados estruturados voltadas para cenários verticais, construídas e validadas pela colaboração da comunidade;
Plataforma de Propostas de Modelos (Model Proposal Platform): mercado de modelos em cadeia que pode ser combinado, chamado e pago.
Através dos módulos acima, a OpenLedger construiu uma "infraestrutura de economia de agentes" orientada a dados e com modelos combináveis, promovendo a on-chainização da cadeia de valor da IA.
E na adoção da tecnologia blockchain, a OpenLedger utiliza OP Stack + EigenDA como base para construir um ambiente de execução de dados e contratos de alto desempenho, baixo custo e verificável para modelos de IA.
Construído sobre a OP Stack: baseado na pilha de tecnologia da Optimism, suporta alta taxa de transferência e execução de baixo custo;
Liquidar na mainnet do Ethereum: garantir a segurança das transações e a integridade dos ativos;
Compatível com EVM: facilita o desenvolvimento para que os desenvolvedores possam implementar e expandir rapidamente com base no Solidity;
EigenDA fornece suporte para a disponibilidade de dados: reduz significativamente os custos de armazenamento e garante a verificabilidade dos dados.
Comparado a cadeias de IA genéricas como NEAR, que são mais focadas na camada base e na soberania de dados, e na arquitetura "AI Agents on BOS", a OpenLedger está mais concentrada em construir uma cadeia de IA dedicada voltada para incentivos de dados e modelos, comprometendo-se a tornar o desenvolvimento e a chamada de modelos rastreáveis, combináveis e sustentáveis na cadeia. Ela é a infraestrutura de incentivos de modelos no mundo Web3, combinando hospedagem de modelos, cobrança de uso e interfaces combináveis na cadeia, promovendo o caminho para a realização de "modelo como ativo".
Três, os componentes principais e a arquitetura técnica da OpenLedger
3.1 Modelo de Fábrica, fábrica de modelos sem código
ModelFactory é uma plataforma de ajuste fino de grandes modelos de linguagem (LLM) dentro do ecossistema OpenLedger. Diferentemente das estruturas de ajuste fino tradicionais, o ModelFactory oferece uma interface puramente gráfica, sem necessidade de ferramentas de linha de comando ou integração de API. Os usuários podem ajustar modelos com base em conjuntos de dados autorizados e revisados concluídos na OpenLedger. Isso realiza um fluxo de trabalho integrado de autorização de dados, treinamento de modelos e implantação, e seus processos principais incluem:
Controle de acesso a dados: o usuário envia um pedido de dados, o provedor revisa e aprova, os dados são automaticamente integrados à interface de treinamento do modelo.
Seleção e configuração de modelos: Suporta LLMs principais, configurando hiperparâmetros através da GUI.
Ajuste leve: motor LoRA / QLoRA embutido, mostra o progresso do treinamento em tempo real.
Avaliação e Desdobramento de Modelos: Ferramenta de avaliação integrada, suporta exportação para desdobramento ou chamada de compartilhamento ecológico.
Interface de verificação interativa: fornece uma interface de chat, facilitando o teste direto da capacidade de resposta do modelo.
Geração de RAG de rastreabilidade: Responder com referências de origem, aumentando a confiança e a auditabilidade.
A arquitetura do sistema Model Factory inclui seis módulos, abrangendo autenticação de identidade, permissões de dados, ajuste fino de modelos, avaliação e implantação, e rastreamento RAG, criando uma plataforma de serviços de modelo integrada que é segura, controlável, interativa em tempo real e sustentável para monetização.
O resumo das capacidades dos grandes modelos de linguagem suportados pelo ModelFactory é o seguinte:
LLaMA série: o ecossistema mais amplo, comunidade ativa, desempenho geral forte, é um dos modelos base de código aberto mais populares atualmente.
Mistral: Arquitetura eficiente, desempenho de inferência excelente, adequada para cenários de implantação flexíveis e recursos limitados.
Qwen: Desempenho excelente em tarefas em chinês, com forte capacidade abrangente, adequado como primeira escolha para desenvolvedores nacionais.
ChatGLM: O efeito de diálogo em chinês é destacado, adequado para atendimento ao cliente em nichos e cenários de localização.
Deepseek: apresenta desempenho superior em geração de código e raciocínio matemático, adequado para ferramentas de assistência ao desenvolvimento inteligente.
Gemma: Um modelo leve lançado pelo Google, com estrutura clara, fácil de rapidamente começar a usar e experimentar.
Falcon: Foi uma referência de desempenho, adequado para pesquisa básica ou testes comparativos, mas a atividade na comunidade diminuiu.
BLOOM: Suporte a múltiplas línguas é forte, mas o desempenho de inferência é fraco, adequado para pesquisas de cobertura linguística.
GPT-2: modelo clássico inicial, adequado apenas para fins de ensino e validação, não recomendado para uso em produção.
Embora a combinação de modelos da OpenLedger não inclua os mais recentes modelos MoE de alto desempenho ou modelos multimodais, sua estratégia não é obsoleta, mas sim uma configuração "prioridade prática" baseada nas restrições reais de implantação em cadeia (custo de inferência, adaptação RAG, compatibilidade LoRA, ambiente EVM).
Model Factory como uma ferramenta de código sem código, todos os modelos têm um mecanismo de prova de contribuição embutido, garantindo os direitos dos contribuidores de dados e desenvolvedores de modelos, com vantagens de baixo limiar, monetizável e combinável, em comparação com ferramentas tradicionais de desenvolvimento de modelos:
Para desenvolvedores: fornecer um caminho completo para incubação, distribuição e renda do modelo;
Para a plataforma: formar a circulação de ativos modelo e o ecossistema de combinação;
Para os utilizadores: é possível combinar modelos ou Agentes como se estivesse a chamar uma API.
3.2 OpenLoRA, a assetização em cadeia do modelo de ajuste fino
LoRA (Low-Rank Adaptation) é um método eficiente de ajuste fino de parâmetros que aprende novas tarefas ao inserir "matrizes de baixa classificação" em um grande modelo pré-treinado, sem modificar os parâmetros do modelo original, reduzindo assim significativamente os custos de treinamento e as necessidades de armazenamento. Modelos de linguagem grandes tradicionais geralmente têm dezenas de bilhões ou até trilhões de parâmetros. Para usá-los em tarefas específicas, é necessário fazer o ajuste fino. A estratégia central do LoRA é: "congelar os parâmetros do grande modelo original e treinar apenas as novas matrizes de parâmetros inseridas." Seus parâmetros são eficientes, o treinamento é rápido, e a implementação é flexível, tornando-o o método de ajuste fino mais adequado atualmente para a implementação e chamada combinada de modelos Web3.
OpenLoRA é um framework de inferência leve, projetado pela OpenLedger, especificamente para a implantação de múltiplos modelos e compartilhamento de recursos. Seu objetivo central é resolver problemas comuns na implantação de modelos de IA, como altos custos, baixa reutilização e desperdício de recursos de GPU, promovendo a execução prática da "IA Pagável".
OpenLoRA sistema de arquitetura componentes centrais, baseado em design modular, cobre armazenamento de modelos, execução de inferência, roteamento de pedidos e outros elos críticos, realizando uma implantação e chamada de múltiplos modelos de forma eficiente e a baixo custo:
Módulo de armazenamento LoRA Adapter: o adaptador LoRA ajustado é hospedado na OpenLedger, permitindo o carregamento sob demanda, evitando carregar todos os modelos na memória de vídeo, economizando recursos.
Alojamento de modelos e camada de fusão dinâmica: todos os modelos de ajuste fino partilham o modelo base grande, durante a inferência o adaptador LoRA é fundido de forma dinâmica, suportando a inferência conjunta de vários adaptadores, melhorando o desempenho.
Motor de inferência: integração de várias tecnologias de otimização CUDA, incluindo Flash-Attention, Paged-Attention e SGMV.
Módulo de Roteamento de Solicitações e Saída em Fluxo: Raiz
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
14 gostos
Recompensa
14
4
Partilhar
Comentar
0/400
HalfPositionRunner
· 07-23 04:37
O chefe finalmente percebeu que não é apenas uma questão de acumular poder de computação.
Ver originalResponder0
BakedCatFanboy
· 07-20 14:38
Já estão a contar histórias de IA novamente.
Ver originalResponder0
HalfIsEmpty
· 07-20 09:15
Ai, só depende de o BTC levar ou não.
Ver originalResponder0
fren_with_benefits
· 07-20 08:59
bull, eles estão todos focados no Poder de computação, eu estou focado na arquitetura de ai
OpenLedger: Criar uma infraestrutura econômica de agentes inteligentes orientada por dados e com modelos combináveis
OpenLedger Profundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济
I. Introdução | A transição da camada de modelo do Crypto AI
Dados, modelos e poder computacional são os três principais elementos da infraestrutura de IA, comparando-se a combustível (dados), motor (modelo) e energia (poder computacional), todos indispensáveis. Assim como o caminho de evolução da infraestrutura na indústria de IA tradicional, o campo da Crypto AI também passou por fases semelhantes. No início de 2024, o mercado foi dominado por projetos de GPU descentralizados, enfatizando amplamente a lógica de crescimento extensivo de "competição de poder computacional". No entanto, ao entrar em 2025, o foco da indústria começou a se deslocar gradualmente para as camadas de modelo e dados, marcando a transição da Crypto AI de uma competição por recursos de base para uma construção de médio nível com maior sustentabilidade e valor de aplicação.
Modelo Geral (LLM) vs Modelo Especializado (SLM)
Os modelos de linguagem tradicionais de grande escala (LLM) dependem fortemente de grandes conjuntos de dados e de arquiteturas distribuídas complexas, com escalas de parâmetros variando de 70B a 500B, e o custo de um único treinamento frequentemente alcança milhões de dólares. O SLM (Modelo de Linguagem Especializado), como um paradigma de ajuste leve de um modelo básico reutilizável, é geralmente baseado em modelos de código aberto, combinando uma pequena quantidade de dados profissionais de alta qualidade e tecnologias como LoRA, para construir rapidamente modelos de especialistas com conhecimento em domínios específicos, reduzindo significativamente o custo de treinamento e a barreira técnica.
Vale a pena notar que o SLM não será integrado nos pesos do LLM, mas sim operará em colaboração com o LLM através de chamadas de arquitetura Agent, roteamento dinâmico do sistema de plugins, módulos LoRA hot-plug e RAG (Geração Aumentada por Recuperação). Esta arquitetura mantém a ampla capacidade de cobertura do LLM, enquanto melhora o desempenho especializado através de módulos de ajuste fino, formando um sistema inteligente altamente flexível e combinável.
O valor e os limites da Crypto AI no nível do modelo
Os projetos de Crypto AI, na sua essência, são difíceis de melhorar diretamente as capacidades centrais dos modelos de linguagem de grande escala (LLM), sendo a razão principal:
No entanto, em cima de modelos de base de código aberto, os projetos de Crypto AI ainda podem estender valor através do ajuste fino de modelos de linguagem especializados (SLM), combinando a verificabilidade e os mecanismos de incentivo do Web3. Como "camada de interface periférica" da cadeia industrial de IA, isso se reflete em duas direções centrais:
Análise de Classificação de Tipos de Modelos de IA e Aplicabilidade em Blockchain
Assim, pode-se ver que os pontos de viabilidade dos projetos de AI Crypto do tipo modelo estão principalmente concentrados na afinação leve de SLMs pequenos, na integração e verificação de dados em cadeia da arquitetura RAG, bem como na implementação local e incentivos dos modelos Edge. Combinando a verificabilidade da blockchain e o mecanismo de token, a Crypto pode oferecer um valor único para esses cenários de modelos de recursos médios a baixos, formando um valor diferenciador da "camada de interface" de AI.
Baseada em dados e modelos, a cadeia de blocos de IA pode registar de forma clara e imutável a origem das contribuições de cada dado e modelo, aumentando significativamente a credibilidade dos dados e a rastreabilidade do treinamento dos modelos. Além disso, através do mecanismo de contratos inteligentes, ao serem utilizados dados ou modelos, a distribuição de recompensas é automaticamente acionada, transformando o comportamento da IA em um valor tokenizado mensurável e negociável, construindo um sistema de incentivos sustentável. Além disso, os usuários da comunidade também podem avaliar o desempenho do modelo através de votação com tokens, participar da formulação e iteração de regras, e aprimorar a estrutura de governança descentralizada.
Dois, Visão Geral do Projeto | A visão da cadeia AI da OpenLedger
OpenLedger é um dos poucos projetos de blockchain de IA que se concentra em mecanismos de incentivo para dados e modelos no mercado atual. Ele foi o primeiro a propor o conceito de "Payable AI", com o objetivo de construir um ambiente de funcionamento de IA justo, transparente e combinável, incentivando colaboradores de dados, desenvolvedores de modelos e construtores de aplicações de IA a colaborarem na mesma plataforma e a obterem收益 na cadeia com base nas contribuições reais.
OpenLedger oferece um ciclo completo da «fornecimento de dados» até «implantação de modelos» e «chamada de distribuição de lucros», cujos módulos principais incluem:
Através dos módulos acima, a OpenLedger construiu uma "infraestrutura de economia de agentes" orientada a dados e com modelos combináveis, promovendo a on-chainização da cadeia de valor da IA.
E na adoção da tecnologia blockchain, a OpenLedger utiliza OP Stack + EigenDA como base para construir um ambiente de execução de dados e contratos de alto desempenho, baixo custo e verificável para modelos de IA.
Comparado a cadeias de IA genéricas como NEAR, que são mais focadas na camada base e na soberania de dados, e na arquitetura "AI Agents on BOS", a OpenLedger está mais concentrada em construir uma cadeia de IA dedicada voltada para incentivos de dados e modelos, comprometendo-se a tornar o desenvolvimento e a chamada de modelos rastreáveis, combináveis e sustentáveis na cadeia. Ela é a infraestrutura de incentivos de modelos no mundo Web3, combinando hospedagem de modelos, cobrança de uso e interfaces combináveis na cadeia, promovendo o caminho para a realização de "modelo como ativo".
Três, os componentes principais e a arquitetura técnica da OpenLedger
3.1 Modelo de Fábrica, fábrica de modelos sem código
ModelFactory é uma plataforma de ajuste fino de grandes modelos de linguagem (LLM) dentro do ecossistema OpenLedger. Diferentemente das estruturas de ajuste fino tradicionais, o ModelFactory oferece uma interface puramente gráfica, sem necessidade de ferramentas de linha de comando ou integração de API. Os usuários podem ajustar modelos com base em conjuntos de dados autorizados e revisados concluídos na OpenLedger. Isso realiza um fluxo de trabalho integrado de autorização de dados, treinamento de modelos e implantação, e seus processos principais incluem:
A arquitetura do sistema Model Factory inclui seis módulos, abrangendo autenticação de identidade, permissões de dados, ajuste fino de modelos, avaliação e implantação, e rastreamento RAG, criando uma plataforma de serviços de modelo integrada que é segura, controlável, interativa em tempo real e sustentável para monetização.
O resumo das capacidades dos grandes modelos de linguagem suportados pelo ModelFactory é o seguinte:
Embora a combinação de modelos da OpenLedger não inclua os mais recentes modelos MoE de alto desempenho ou modelos multimodais, sua estratégia não é obsoleta, mas sim uma configuração "prioridade prática" baseada nas restrições reais de implantação em cadeia (custo de inferência, adaptação RAG, compatibilidade LoRA, ambiente EVM).
Model Factory como uma ferramenta de código sem código, todos os modelos têm um mecanismo de prova de contribuição embutido, garantindo os direitos dos contribuidores de dados e desenvolvedores de modelos, com vantagens de baixo limiar, monetizável e combinável, em comparação com ferramentas tradicionais de desenvolvimento de modelos:
3.2 OpenLoRA, a assetização em cadeia do modelo de ajuste fino
LoRA (Low-Rank Adaptation) é um método eficiente de ajuste fino de parâmetros que aprende novas tarefas ao inserir "matrizes de baixa classificação" em um grande modelo pré-treinado, sem modificar os parâmetros do modelo original, reduzindo assim significativamente os custos de treinamento e as necessidades de armazenamento. Modelos de linguagem grandes tradicionais geralmente têm dezenas de bilhões ou até trilhões de parâmetros. Para usá-los em tarefas específicas, é necessário fazer o ajuste fino. A estratégia central do LoRA é: "congelar os parâmetros do grande modelo original e treinar apenas as novas matrizes de parâmetros inseridas." Seus parâmetros são eficientes, o treinamento é rápido, e a implementação é flexível, tornando-o o método de ajuste fino mais adequado atualmente para a implementação e chamada combinada de modelos Web3.
OpenLoRA é um framework de inferência leve, projetado pela OpenLedger, especificamente para a implantação de múltiplos modelos e compartilhamento de recursos. Seu objetivo central é resolver problemas comuns na implantação de modelos de IA, como altos custos, baixa reutilização e desperdício de recursos de GPU, promovendo a execução prática da "IA Pagável".
OpenLoRA sistema de arquitetura componentes centrais, baseado em design modular, cobre armazenamento de modelos, execução de inferência, roteamento de pedidos e outros elos críticos, realizando uma implantação e chamada de múltiplos modelos de forma eficiente e a baixo custo: