OpenLedger: Construir modelos de agentes inteligentes combináveis baseados em dados

OpenLedger Profundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

Uma, Introdução | A transição da camada de modelo do Crypto AI

Dados, modelos e poder computacional são os três elementos centrais da infraestrutura de IA, comparáveis a combustível (dados), motor (modelo) e energia (poder computacional), todos indispensáveis. Assim como na trajetória de evolução da infraestrutura da indústria tradicional de IA, o campo da Crypto AI também passou por etapas semelhantes. No início de 2024, o mercado foi temporariamente dominado por projetos de GPU descentralizados, enfatizando amplamente a lógica de crescimento extensivo de "competir em poder computacional". No entanto, a partir de 2025, o foco da indústria começou a se deslocar gradualmente para os níveis de modelo e dados, marcando a transição da Crypto AI de uma competição por recursos básicos para uma construção em camadas mais sustentável e de valor aplicado.

Modelo Geral (LLM) vs Modelo Especializado (SLM)

Os modelos de linguagem tradicionais de grande escala (LLM) dependem fortemente de grandes conjuntos de dados e de arquiteturas distribuídas complexas, com escalas de parâmetros que variam entre 70B e 500B, e o custo de um único treinamento pode chegar a milhões de dólares. O SLM (Modelo de Linguagem Especializada), como um paradigma de ajuste fino leve para modelos de base reutilizáveis, geralmente é baseado em modelos de código aberto, combinando uma pequena quantidade de dados profissionais de alta qualidade e tecnologias como LoRA, para construir rapidamente modelos de especialistas com conhecimento em áreas específicas, reduzindo significativamente os custos de treinamento e a barreira técnica.

É importante notar que o SLM não será integrado nos pesos do LLM, mas sim operará em colaboração com o LLM através da arquitetura Agent, roteamento dinâmico do sistema de plugins, hot-swapping do módulo LoRA, RAG (Geração Aumentada por Recuperação) e outras formas. Esta arquitetura mantém a ampla capacidade de cobertura do LLM, enquanto melhora o desempenho especializado através de módulos de ajuste fino, formando um sistema inteligente modular altamente flexível.

O valor e os limites da Crypto AI a nível de modelo

Os projetos de AI cripto, na sua essência, são difíceis de melhorar diretamente as capacidades centrais dos Modelos de Linguagem de Grande Escala (LLM), e a razão principal é que

  • Barreiras tecnológicas muito altas: a escala de dados, recursos computacionais e capacidades de engenharia necessárias para treinar um Modelo Base são extremamente grandes, atualmente apenas gigantes da tecnologia como os EUA e a China possuem as capacidades correspondentes.
  • Limitações do ecossistema open source: Embora modelos básicos mainstream como LLaMA e Mixtral tenham sido open source, a verdadeira chave para o avanço dos modelos ainda está concentrada em instituições de pesquisa e sistemas de engenharia fechados, com espaço limitado para a participação de projetos em blockchain no nível dos modelos centrais.

No entanto, em cima de modelos de base de código aberto, os projetos de Crypto AI ainda podem estender valor através do ajuste fino de modelos de linguagem especializados (SLM), combinando com a verificabilidade e mecanismos de incentivo do Web3. Como uma "camada de interface periférica" da cadeia industrial de IA, isso se reflete em duas direções principais:

  • Camada de verificação confiável: através do registro em cadeia do caminho de geração do modelo, contribuição de dados e utilização, aumenta a rastreabilidade e a resistência à manipulação das saídas de IA.
  • Mecanismo de incentivo: Com o uso do Token nativo, para incentivar o upload de dados, chamadas de modelo, execução de agentes (Agent) e outras ações, construindo um ciclo positivo de treino e serviço do modelo.

Classificação de Tipos de Modelos de IA e Análise de Aplicabilidade em Blockchain

Assim, pode-se ver que os pontos de viabilidade dos projetos de IA Crypto do tipo modelo estão principalmente concentrados na leve afinação de SLMs pequenos, na integração e verificação de dados em cadeia da arquitetura RAG, bem como na implantação local e incentivos dos modelos Edge. Combinando a verificabilidade da blockchain e o mecanismo de token, o Crypto pode fornecer um valor único para esses cenários de modelos de recursos médios e baixos, formando um valor diferenciado da "camada de interface" da IA.

A cadeia de blockchain AI baseada em dados e modelos pode registrar de forma clara e imutável a origem da contribuição de cada dado e modelo, melhorando significativamente a credibilidade dos dados e a rastreabilidade do treinamento de modelos. Ao mesmo tempo, através do mecanismo de contrato inteligente, a distribuição de recompensas é automaticamente acionada quando os dados ou modelos são utilizados, transformando o comportamento da IA em um valor tokenizado mensurável e comercializável, construindo um sistema de incentivos sustentável. Além disso, os usuários da comunidade também podem avaliar o desempenho do modelo, participar da formulação e iteração de regras através da votação com tokens, aperfeiçoando a estrutura de governança descentralizada.

OpenLedger Profundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

II. Visão Geral do Projeto | A visão da cadeia AI da OpenLedger

OpenLedger é um dos poucos projetos de blockchain de IA no mercado atual que se concentra em mecanismos de incentivo de dados e modelos. Foi o primeiro a propor o conceito de "Payable AI", com o objetivo de construir um ambiente de operação de IA justo, transparente e combinável, incentivando contribuidores de dados, desenvolvedores de modelos e construtores de aplicações de IA a colaborar na mesma plataforma e a obter rendimentos em cadeia com base nas contribuições reais.

A OpenLedger oferece um ciclo completo da "fornecimento de dados" até "implementação de modelos" e "chamadas de distribuição de lucros", cujos módulos principais incluem:

  • Fábrica de Modelos: sem necessidade de programação, é possível usar o LLM de código aberto para treinar e implantar modelos personalizados com ajuste fino LoRA;
  • OpenLoRA: suporta a coexistência de mil modelos, carregamento dinâmico sob demanda, reduzindo significativamente os custos de implantação;
  • PoA (Prova de Atribuição): mede a contribuição e distribui recompensas através de chamadas em cadeia.
  • Datanets: Redes de dados estruturados voltadas para cenários verticais, construídas e validadas pela colaboração da comunidade;
  • Plataforma de Propostas de Modelos (Model Proposal Platform): mercado de modelos em cadeia que é combinável, invocável e pagável.

Através dos módulos acima, a OpenLedger construiu uma "infraestrutura económica de agentes inteligentes" baseada em dados e modelos combináveis, promovendo a on-chainização da cadeia de valor da IA.

E na adoção da tecnologia blockchain, a OpenLedger utiliza OP Stack + EigenDA como base, criando um ambiente de execução de dados e contratos de alto desempenho, baixo custo e verificável para modelos de IA.

  • Construído em OP Stack: Baseado na pilha tecnológica Optimism, suporta alta taxa de transferência e execução de baixas taxas.
  • Liquidar na mainnet Ethereum: Garantir a segurança das transações e a integridade dos ativos;
  • Compatível com EVM: Facilita aos desenvolvedores a rápida implementação e expansão com base em Solidity;
  • EigenDA fornece suporte de disponibilidade de dados: reduz significativamente os custos de armazenamento e garante a verificabilidade dos dados.

Em comparação com cadeias de IA genéricas como a NEAR, que são mais orientadas à camada base e focadas na soberania dos dados e na arquitetura "AI Agents on BOS", a OpenLedger se concentra mais na construção de cadeias de IA especializadas voltadas para incentivos de dados e modelos, dedicada a tornar o desenvolvimento e a chamada de modelos realizáveis em um ciclo de valor rastreável, combinável e sustentável na cadeia. É a infraestrutura de incentivo a modelos no mundo Web3, combinando hospedagem de modelos, cobrança de uso e interfaces combináveis na cadeia, promovendo o caminho para a realização de "modelos como ativos".

OpenLedgerProfundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

Três, os componentes principais e a arquitetura técnica do OpenLedger

3.1 Modelo de Fábrica, fábrica de modelos sem código

ModelFactory é uma plataforma de ajuste fino de grandes modelos de linguagem (LLM) sob o ecossistema OpenLedger. Ao contrário dos frameworks de ajuste fino tradicionais, o ModelFactory oferece uma interface gráfica totalmente operacional, sem a necessidade de ferramentas de linha de comando ou integração de API. Os usuários podem ajustar modelos com base em conjuntos de dados que foram autorizados e auditados na OpenLedger. Foi implementado um fluxo de trabalho integrado para autorização de dados, treinamento de modelos e implantação, cujo processo central inclui:

  • Controle de acesso a dados: O usuário envia um pedido de dados, o fornecedor revisa e aprova, os dados são automaticamente integrados à interface de treinamento do modelo.
  • Seleção e configuração de modelos: Suporta LLMs populares (como LLaMA, Mistral), configurando hiperparâmetros através da GUI.
  • Ajuste leve: motor LoRA / QLoRA embutido, exibe o progresso de treinamento em tempo real.
  • Avaliação e implementação de modelos: Ferramentas de avaliação integradas, suportam exportação para implementação ou chamadas de compartilhamento ecológico.
  • Interface de verificação de interação: fornece uma interface de chat, facilitando o teste direto da capacidade de perguntas e respostas do modelo.
  • Geração de rastreamento RAG: Respostas com citações de origem, aumentando a confiança e a auditabilidade.

A arquitetura do sistema Model Factory inclui seis grandes módulos, abrangendo autenticação de identidade, permissões de dados, ajuste fino de modelos, avaliação e implantação, e rastreamento RAG, criando uma plataforma de serviços de modelo integrada, segura e controlável, com interação em tempo real e capacidade de monetização sustentável.

OpenLedgerProfundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

O resumo das capacidades dos grandes modelos de linguagem suportados pelo ModelFactory é o seguinte:

  • Série LLaMA: o ecossistema mais amplo, comunidade ativa e forte desempenho geral, é um dos modelos de base de código aberto mais populares atualmente.
  • Mistral: Arquitetura eficiente, desempenho de inferência excelente, adequado para cenários com implantação flexível e recursos limitados.
  • Qwen: Produzido pela Alibaba, apresenta um desempenho excelente em tarefas em chinês, com habilidades abrangentes, ideal para desenvolvedores nacionais como primeira escolha.
  • ChatGLM: Efeito de conversa em chinês destacado, adequado para atendimento ao cliente em nichos e cenários de localização.
  • Deepseek: apresenta desempenho superior em geração de código e raciocínio matemático, adequado para ferramentas de assistência ao desenvolvimento inteligente.
  • Gemma: Modelo leve lançado pelo Google, com estrutura clara, fácil de começar e experimentar rapidamente.
  • Falcon: Foi uma referência de desempenho, adequado para pesquisa básica ou testes comparativos, mas a atividade da comunidade diminuiu.
  • BLOOM: suporte a várias línguas é forte, mas o desempenho de inferência é fraco, adequado para pesquisas de cobertura linguística.
  • GPT-2: modelo clássico inicial, adequado apenas para fins de ensino e validação, não recomendado para uso em implantação real.

Embora a combinação de modelos da OpenLedger não inclua os mais recentes modelos MoE de alto desempenho ou modelos multimodais, sua estratégia não está desatualizada, mas sim configurada com um enfoque "prático em primeiro lugar" com base nas restrições da implantação em cadeia (custos de inferência, adaptação RAG, compatibilidade LoRA, ambiente EVM).

Model Factory, como uma ferramenta de código zero, possui um mecanismo de prova de contribuição embutido em todos os modelos, garantindo os direitos dos contribuidores de dados e desenvolvedores de modelos, com vantagens de baixo limiar, possibilidade de monetização e combinabilidade, em comparação com ferramentas tradicionais de desenvolvimento de modelos:

  • Para desenvolvedores: fornecer um caminho completo para incubação, distribuição e receita do modelo;
  • Para a plataforma: formar a circulação de ativos de modelo e ecossistema de combinação;
  • Para os utilizadores: podem combinar modelos ou Agentes como se estivessem a chamar uma API.

OpenLedgerProfundidade研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济

3.2 OpenLoRA, a capitalização de ativos em cadeia do modelo de ajuste fino

LoRA (Low-Rank Adaptation) é um método eficiente de ajuste fino de parâmetros, que aprende novas tarefas inserindo uma "matriz de baixa classificação" em um grande modelo pré-treinado, sem modificar os parâmetros do modelo original, reduzindo assim significativamente os custos de treinamento e as necessidades de armazenamento. Modelos de linguagem grandes tradicionais (como LLaMA, GPT-3) geralmente possuem dezenas de bilhões ou até trilhões de parâmetros. Para usá-los em tarefas específicas (como perguntas e respostas legais, consultas médicas), é necessário realizar o ajuste fino. A estratégia central do LoRA é: "congelar os parâmetros do grande modelo original e treinar apenas a nova matriz de parâmetros inserida." Seus parâmetros são eficientes, o treinamento é rápido e a implantação é flexível, sendo o método de ajuste fino mais adequado atualmente para a implantação e chamada combinada de modelos Web3.

OpenLoRA é uma estrutura de inferência leve construída pela OpenLedger, projetada para o gerenciamento de múltiplos modelos e compartilhamento de recursos. Seu objetivo central é resolver problemas comuns no gerenciamento de modelos de IA, como altos custos, baixa reutilização e desperdício de recursos de GPU, promovendo a execução prática da "IA Pagável" (Payable AI).

OpenLoRA arquitetura do sistema núcleo componente, baseado em design modular, cobre armazenamento de modelo, execução de inferência, roteamento de solicitações e outras etapas críticas, alcançando capacidade de implantação e chamada de múltiplos modelos de forma eficiente e de baixo custo:

  • Módulo de Armazenamento de Adaptadores LoRA (Armazenamento de Adaptadores LoRA): O adaptador LoRA ajustado é hospedado no OpenLedger, permitindo carregamento sob demanda, evitando o pré-carregamento de todos os modelos na memória gráfica, economizando recursos.
  • Alojamento de Modelos e Camada de Fusão Dinâmica (Alojamento de Modelos & Camada de Fusão de Adaptadores): todos os modelos de ajuste fino partilham o modelo base (base model), durante a inferência
OP-2.92%
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • 7
  • Compartilhar
Comentário
0/400
airdrop_whisperervip
· 4h atrás
Mais uma vez a aproveitar a onda da IA...
Ver originalResponder0
MondayYoloFridayCryvip
· 14h atrás
Este mercado está tão tm enrolado...
Ver originalResponder0
MentalWealthHarvestervip
· 14h atrás
Máquina de visualização de idiotas caros
Ver originalResponder0
CantAffordPancakevip
· 14h atrás
mundo crypto primeiro investidor de retalho em confusão!
Ver originalResponder0
fren.ethvip
· 14h atrás
Escrevi tanto, é apenas uma especulação.
Ver originalResponder0
SmartContractWorkervip
· 14h atrás
De qualquer forma, ainda temos que trabalhar mais alguns anos.
Ver originalResponder0
Blockblindvip
· 14h atrás
O poder de computação vai esfriar mais cedo ou mais tarde.
Ver originalResponder0
Faça trade de criptomoedas em qualquer lugar e a qualquer hora
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)