OpenLedger cria uma nova geração de blockchain de IA para construir uma economia de agentes inteligentes impulsionada por dados

OpenLedger Profundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

I. Introdução | A transição da camada de modelo do Crypto AI

Dados, modelos e poder computacional são os três principais elementos da infraestrutura de IA, comparáveis a combustível (dados), motor (modelo) e energia (poder computacional), todos essenciais. Assim como o caminho de evolução da infraestrutura na indústria de IA tradicional, o campo de Crypto AI também passou por fases semelhantes. No início de 2024, o mercado foi temporariamente dominado por projetos de GPU descentralizados como (Akash, Render, io.net e outros ), enfatizando amplamente a lógica de crescimento extensivo de "combinar poder computacional". Após 2025, a atenção da indústria gradualmente se deslocou para os níveis de modelo e dados, marcando a transição do Crypto AI de uma competição por recursos de base para uma construção de nível médio com maior sustentabilidade e valor de aplicação.

Modelo Geral (LLM) vs Modelo Especializado (SLM)

Os modelos de linguagem tradicionais (LLM) dependem fortemente de grandes conjuntos de dados e de arquiteturas distribuídas complexas, com escalas de parâmetros que variam de 70B a 500B, e o custo de um único treinamento pode alcançar milhões de dólares. O SLM (Modelo de Linguagem Especializado), como um paradigma de ajuste fino leve que permite a reutilização de modelos base, geralmente é baseado em modelos de código aberto como LLaMA, Mistral e DeepSeek, combinando uma pequena quantidade de dados especializados de alta qualidade e tecnologias como LoRA, para construir rapidamente modelos de especialistas com conhecimento em domínios específicos, reduzindo significativamente os custos de treinamento e a barreira técnica.

É importante notar que o SLM não será integrado nos pesos do LLM, mas sim operará em colaboração com o LLM através da arquitetura de Agente, do sistema de plugins para roteamento dinâmico, da inserção a quente do módulo LoRA e do RAG (Geração Aumentada por Recuperação). Esta arquitetura mantém a ampla capacidade de cobertura do LLM, enquanto melhora o desempenho especializado através de módulos finamente ajustados, formando um sistema inteligente combinado altamente flexível.

O valor e os limites da Crypto AI na camada de modelo

Os projetos de AI Crypto, na essência, são difíceis de melhorar diretamente as capacidades centrais dos modelos de linguagem de grande escala (LLM), e a razão principal para isso é

  • Barreiras tecnológicas muito elevadas: a escala de dados, os recursos computacionais e as capacidades de engenharia necessárias para treinar um Modelo de Fundação são extremamente vastos, e atualmente apenas alguns gigantes tecnológicos têm essa capacidade.
  • Limitações do ecossistema de código aberto: embora modelos fundamentais como LLaMA e Mixtral tenham sido open source, a verdadeira chave para a superação dos modelos ainda está concentrada em instituições de pesquisa e sistemas de engenharia fechados, com espaço limitado para projetos em blockchain na camada do modelo central.

No entanto, em cima de modelos de base de código aberto, o projeto Crypto AI ainda pode estender seu valor através do ajuste fino de modelos de linguagem especializados (SLM), combinando a verificabilidade e os mecanismos de incentivo do Web3. Como uma "camada de interface periférica" da cadeia de indústria de IA, isso se reflete em duas direções centrais:

  • Camada de validação confiável: através do registo na cadeia do caminho de geração do modelo, contribuição de dados e utilização, aumenta a rastreabilidade e a resistência à adulteração da saída de IA.
  • Mecanismo de incentivo: Utilizando o Token nativo, para incentivar o upload de dados, chamadas de modelos, execução de agentes (Agent) e outras ações, construindo um ciclo positivo de treino e serviço de modelos.

Classificação de tipos de modelos de IA e análise da aplicabilidade da blockchain

Assim, é evidente que o ponto de viabilidade dos projetos de IA Crypto do tipo modelo se concentra principalmente na afinação leve de pequenos SLMs, na integração e verificação de dados em cadeia da arquitetura RAG, bem como na implementação local e incentivo dos modelos Edge. Combinando a verificabilidade da blockchain e o mecanismo de tokens, o Crypto pode fornecer um valor único para esses cenários de modelos de recursos médio-baixos, formando um valor diferenciado da "camada de interface" da IA.

A cadeia de IA baseada em dados e modelos de blockchain pode registrar de forma clara e imutável a origem da contribuição de cada dado e modelo, aumentando significativamente a credibilidade dos dados e a rastreabilidade do treinamento de modelos. Ao mesmo tempo, através do mecanismo de contratos inteligentes, a distribuição automática de recompensas é desencadeada quando dados ou modelos são chamados, transformando o comportamento da IA em um valor tokenizado que é mensurável e negociável, construindo um sistema de incentivos sustentável. Além disso, os usuários da comunidade também podem avaliar o desempenho do modelo por meio de votação com tokens, participar da formulação e iteração de regras, aperfeiçoando a estrutura de governança descentralizada.

OpenLedgerProfundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

II. Visão Geral do Projeto | A Visão da Cadeia AI da OpenLedger

OpenLedger é um dos poucos projetos de blockchain com foco em dados e mecanismos de incentivo de modelos no mercado atual. Ele foi o primeiro a apresentar o conceito de "Payable AI", com o objetivo de construir um ambiente de execução de IA justo, transparente e combinável, incentivando colaboradores de dados, desenvolvedores de modelos e construtores de aplicações de IA a colaborarem na mesma plataforma e a obterem rendimentos em cadeia com base nas contribuições reais.

OpenLedger oferece um ciclo fechado completo desde "fornecimento de dados" até "implantação de modelos" e "chamadas de distribuição de lucros", com os seus módulos principais incluindo:

  • Fábrica de Modelos: sem necessidade de programação, é possível usar o LoRA para afinar, treinar e implantar modelos personalizados com base em LLM de código aberto;
  • OpenLoRA: suporta a coexistência de mil modelos, carregamento dinâmico sob demanda, reduzindo significativamente os custos de implementação;
  • PoA (Proof of Attribution): Medição de contribuição e distribuição de recompensas através de chamadas em cadeia.
  • Datanets: redes de dados estruturados direcionadas a cenários verticais, construídas e validadas por colaboração comunitária;
  • Plataforma de Propostas de Modelos (Model Proposal Platform): mercado de modelos em cadeia que é combinável, chamável e pagável.

Através dos módulos acima, a OpenLedger construiu uma "infraestrutura econômica de agentes inteligentes" impulsionada por dados e com modelos combináveis, promovendo a on-chainização da cadeia de valor da IA.

E na adoção da tecnologia blockchain, a OpenLedger construiu um ambiente de execução de dados e contratos de alto desempenho, baixo custo e verificável para modelos de IA, utilizando OP Stack + EigenDA como base.

  • Construído com base na OP Stack: baseado na pilha de tecnologia Optimism, suporta alta taxa de transferência e execução de baixo custo;
  • Liquidação na rede principal do Ethereum: Garantir a segurança das transações e a integridade dos ativos;
  • Compatível com EVM: Facilita para os desenvolvedores a implantação e expansão rápida com base em Solidity;
  • EigenDA oferece suporte à disponibilidade de dados: reduz significativamente os custos de armazenamento e garante a verificabilidade dos dados.

Comparado a blockchains de IA genéricas como NEAR, que são mais focadas na camada base e promovem a soberania de dados com a arquitetura "AI Agents on BOS", a OpenLedger está mais focada na construção de blockchains dedicadas à IA voltadas para incentivos de dados e modelos, comprometendo-se a tornar o desenvolvimento e a utilização de modelos na blockchain rastreáveis, combináveis e sustentáveis em um ciclo de valor. É a infraestrutura de incentivo de modelos no mundo Web3, combinando hospedagem de modelos estilo HuggingFace, cobrança de uso estilo Stripe e interfaces combináveis na blockchain estilo Infura, promovendo o caminho para a realização de "modelos como ativos".

OpenLedger Profundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

Três, Componentes principais e arquitetura técnica do OpenLedger

3.1 Modelo de Fábrica, fábrica de modelos sem código

ModelFactory é uma plataforma de ajuste fino de um grande modelo de linguagem (LLM) dentro do ecossistema OpenLedger. Ao contrário das estruturas de ajuste fino tradicionais, o ModelFactory oferece uma interface gráfica totalmente operacional, sem necessidade de ferramentas de linha de comando ou integração de API. Os usuários podem ajustar o modelo com base em conjuntos de dados que foram autorizados e auditados na OpenLedger. Isso permite um fluxo de trabalho integrado de autorização de dados, treinamento de modelos e implantação, cujo processo central inclui:

  • Controlo de acesso a dados: O utilizador submete um pedido de dados, o provedor revê e aprova, os dados conectam-se automaticamente à interface de treino do modelo.
  • Seleção e configuração de modelo: Suporta LLMs populares (como LLaMA, Mistral), configuração de hiperparâmetros através da GUI.
  • Ajuste leve: Motor LoRA / QLoRA embutido, exibe o progresso do treinamento em tempo real.
  • Avaliação e implantação de modelos: Ferramentas de avaliação integradas, suportam a exportação para implantação ou chamadas de compartilhamento ecológico.
  • Interface de verificação interativa: fornece uma interface de chat, facilitando o teste direto da capacidade de resposta do modelo.
  • Geração de RAG para rastreabilidade: Respostas com citações de origem, aumentando a confiança e a auditabilidade.

A arquitetura do sistema Model Factory inclui seis módulos, abrangendo autenticação de identidade, permissões de dados, ajuste fino de modelos, implementação de avaliações e rastreamento RAG, criando uma plataforma de serviços de modelo integrada, segura, controlável, interativa em tempo real e sustentável para monetização.

Abaixo está uma tabela resumida das capacidades dos grandes modelos de linguagem atualmente suportados pelo ModelFactory:

  • Série LLaMA: a mais ampla em ecossistema, comunidade ativa e desempenho geral forte, é um dos modelos de base de código aberto mais mainstream atualmente.
  • Mistral: Arquitetura eficiente, desempenho de inferência excelente, adequada para cenários de implantação flexíveis e com recursos limitados.
  • Qwen: Produzido pela Alibaba, apresenta um desempenho excelente em tarefas em chinês, com forte capacidade geral, adequado como a primeira escolha para desenvolvedores nacionais.
  • ChatGLM: O efeito de diálogo em chinês é proeminente, adequado para atendimento ao cliente em nichos e cenários de localização.
  • Deepseek: Destaca-se na geração de código e raciocínio matemático, adequado para ferramentas de assistência ao desenvolvimento inteligente.
  • Gemma: Modelo leve lançado pelo Google, com estrutura clara, fácil de manusear rapidamente e experimentar.
  • Falcon: Já foi um padrão de desempenho, adequado para pesquisa básica ou testes comparativos, mas a atividade da comunidade diminuiu.
  • BLOOM: Suporte multilingue forte, mas desempenho de inferência fraco, adequado para pesquisas de cobertura de linguagem.
  • GPT-2: modelo clássico inicial, adequado apenas para fins de ensino e verificação, não recomendado para uso em produção.

Embora a combinação de modelos da OpenLedger não inclua os mais recentes modelos MoE de alto desempenho ou modelos multimodais, sua estratégia não está desatualizada, mas sim uma configuração "prática primeiro" baseada nas restrições reais de implantação em cadeia (custo de inferência, adaptação RAG, compatibilidade LoRA, ambiente EVM).

Model Factory como uma cadeia de ferramentas sem código, todos os modelos possuem um mecanismo de prova de contribuição embutido, garantindo os direitos dos contribuintes de dados e dos desenvolvedores de modelos, com vantagens de baixo limiar, monetização e combinabilidade, em comparação com ferramentas tradicionais de desenvolvimento de modelos:

  • Para desenvolvedores: fornecer um caminho completo para incubação, distribuição e receita do modelo;
  • Para a plataforma: formar circulação de ativos de modelo e ecossistema de combinação;
  • Para os utilizadores: podem combinar modelos ou Agentes da mesma forma que chamam uma API.

OpenLedger Profundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

3.2 OpenLoRA, a tokenização de ativos em cadeia do modelo de ajuste fino

LoRA (Low-Rank Adaptation) é um método eficiente de ajuste fino de parâmetros, que aprende novas tarefas ao inserir "matrizes de baixa rank" em modelos grandes pré-treinados, sem modificar os parâmetros do modelo original, reduzindo assim significativamente os custos de treinamento e as necessidades de armazenamento. Modelos de linguagem grandes tradicionais (como LLaMA, GPT-3) geralmente possuem dezenas de bilhões ou até trilhões de parâmetros. Para utilizá-los em tarefas específicas (como perguntas e respostas legais, consultas médicas), é necessário realizar o ajuste fino (fine-tuning). A estratégia central do LoRA é: "congelar os parâmetros do modelo grande original e treinar apenas as novas matrizes de parâmetros inseridas." Seus parâmetros são eficientes, o treinamento é rápido e a implantação é flexível, sendo atualmente o método de ajuste fino mais adequado para a implantação e chamada combinada de modelos Web3.

OpenLoRA é um quadro de inferência leve desenvolvido pela OpenLedger, projetado especificamente para o deployment de múltiplos modelos e compartilhamento de recursos. Seu objetivo central é resolver problemas comuns na implementação de modelos de IA, como altos custos, baixa reutilização e desperdício de recursos de GPU, promovendo a execução prática da "IA Pagável" (Payable AI).

OpenLoRA arquitetura do sistema componentes principais, baseado em design modular, cobre armazenamento de modelos, execução de inferência, roteamento de pedidos e outros aspectos chave, realizando uma capacidade de implantação e chamada de múltiplos modelos de forma eficiente e de baixo custo:

  • Módulo de Armazenamento de Adaptadores LoRA (LoRA Adapters Storage): Os adaptadores LoRA ajustados são hospedados na OpenLedger, permitindo o carregamento sob demanda, evitando o pré-carregamento de todos os modelos na memória de vídeo, economizando recursos.
  • Camada de Hospedagem de Modelos e Fusão Dinâmica (Model Hosting & Adapter Merging Layer): Todos os modelos de ajuste fino compartilham um modelo base (base model), durante a inferência, o adaptador LoRA é fundido dinamicamente, suportando múltiplos adaptadores em inferência conjunta (ensemble), melhorando o desempenho.
  • Motor de Inferência (Inference Engine): integra várias tecnologias de otimização CUDA, como Flash-Attention, Paged-Attention e otimização SGMV.
  • Módulo de Roteamento de Solicitações e Streaming de Token (Request Router & Token Streaming): Roteia dinamicamente para o adaptador correto com base no modelo necessário na solicitação, realizando a geração em streaming a nível de token através da otimização do núcleo.

O fluxo de inferência do OpenLoRA pertence ao serviço de modelo "maduro e genérico" em termos técnicos, conforme abaixo:

  • Carregamento do modelo básico: o sistema pré-carrega modelos básicos como LLaMA 3, Mistral, etc.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • 5
  • Partilhar
Comentar
0/400
WalletDetectivevip
· 15h atrás
é o que está escrito neste artigo sobre as conversas vazias urbanas
Ver originalResponder0
rugpull_survivorvip
· 15h atrás
Não finja, é apenas uma moeda de poder de computação.
Ver originalResponder0
AirdropFatiguevip
· 15h atrás
Já a criar um novo conceito para desencorajar novatos
Ver originalResponder0
OnchainDetectivevip
· 15h atrás
Lá vem a economia do modelo yy novamente.
Ver originalResponder0
YieldChaservip
· 15h atrás
O que é que este agente pode fazer de forma transparente?
Ver originalResponder0
  • Pino
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)