Rede Mira: Solução de validação de consenso de múltiplos modelos para problemas de viés e alucinação em IA

robot
Geração de resumo em curso

O caminho da confiança em IA: como a rede Mira resolve os problemas de preconceito e alucinação em IA

Recentemente, uma rede de testes públicos chamada Mira chamou a atenção da indústria. Esta rede visa construir uma camada de confiança para a IA, o que nos leva a questionar: por que a IA precisa ser confiável? Como é que a Mira resolve esse problema?

Ao discutir a IA, as pessoas costumam se concentrar mais em sua poderosa capacidade. No entanto, uma questão interessante e frequentemente ignorada é a "ilusão" ou preconceito existente na IA. A chamada "ilusão" da IA, em termos simples, é que às vezes a IA "inventará" e falará absurdos de forma séria. Por exemplo, se você perguntar à IA por que a lua é rosa, ela pode fornecer uma série de explicações que parecem razoáveis, mas que na verdade não têm fundamento.

A razão pela qual a IA apresenta "alucinações" ou preconceitos está relacionada a algumas das atuais abordagens tecnológicas da IA. A IA generativa geralmente alcança coerência e razoabilidade prevendo o conteúdo "mais provável", mas esse método é difícil de verificar quanto à veracidade. Além disso, os dados de treinamento podem conter erros, preconceitos ou até mesmo conteúdos fictícios, que podem afetar a qualidade da saída da IA. Em outras palavras, a IA aprende padrões de linguagem humana, e não fatos em si.

O mecanismo de geração de probabilidades atual e o modelo orientado a dados quase inevitavelmente trazem a possibilidade de alucinações em IA. Para conteúdos de conhecimento geral ou entretenimento, essas saídas tendenciosas ou ilusórias podem não ter consequências diretas imediatas. No entanto, se ocorrerem em áreas que exigem alta precisão, como saúde, direito, aviação e finanças, podem ter um impacto significativo. Portanto, resolver as alucinações e preconceitos da IA tornou-se uma das questões centrais no processo de evolução da IA.

Para este problema, a indústria já propôs várias soluções. Algumas utilizam técnicas de geração aprimorada por busca, combinando IA com bancos de dados em tempo real, priorizando a saída de fatos verificados. Outras introduzem feedback humano, corrigindo os erros do modelo através de marcação manual e supervisão humana.

O objetivo do projeto Mira é construir uma camada de confiança para a IA, reduzindo os preconceitos e ilusões da IA, e aumentando a fiabilidade da IA. Então, como é que a Mira alcança esse objetivo?

A ideia central da Mira é validar as saídas de IA através do consenso de múltiplos modelos de IA. É essencialmente uma rede de validação que utiliza o consenso de vários modelos de IA para verificar a confiabilidade das saídas de IA. Mais importante ainda, a Mira adota um método de validação de consenso descentralizado.

A chave da rede Mira reside na verificação de consenso descentralizada. Ela utiliza a especialização no campo da criptografia, ao mesmo tempo que combina as vantagens da colaboração de múltiplos modelos, reduzindo preconceitos e ilusões através de um modo de verificação coletiva.

No que diz respeito à arquitetura de verificação, o protocolo Mira suporta a conversão de conteúdo complexo em declarações que podem ser verificadas de forma independente. Essas declarações requerem a participação de operadores de nós na verificação. Para garantir a honestidade dos operadores de nós, o Mira utiliza mecanismos de incentivo e punição econômica criptográfica. Diferentes modelos de IA e operadores de nós descentralizados participam juntos para garantir a confiabilidade dos resultados de verificação.

A arquitetura da rede Mira inclui três partes: conversão de conteúdo, validação distribuída e mecanismo de consenso, para garantir a confiabilidade da validação. Entre elas, a conversão de conteúdo é uma etapa importante. A rede Mira primeiro decompõe o conteúdo candidato em diferentes declarações verificáveis, garantindo que o modelo possa entender o conteúdo no mesmo contexto. Essas declarações são então distribuídas pelo sistema para os nós realizarem a validação, a fim de determinar sua validade, e os resultados são consolidados para alcançar consenso. Por fim, esses resultados e o consenso são retornados ao cliente. Para proteger a privacidade do cliente, o conteúdo candidato é transformado em pares de declarações e distribuído de forma aleatória para diferentes nós, evitando vazamentos de informações durante o processo de validação.

Os operadores de nós são responsáveis por executar o modelo de validadores, processar declarações e submeter resultados de validação. Eles estão dispostos a participar da validação porque podem obter ganhos. Esses ganhos vêm do valor criado para os clientes. O objetivo da rede Mira é reduzir a taxa de erro da IA (alucinações e preconceitos); uma vez alcançado esse objetivo, poderá gerar um enorme valor em setores como saúde, direito, aviação e finanças. Portanto, os clientes estão dispostos a pagar por isso. Claro, a sustentabilidade e a escala do pagamento dependem da capacidade da rede Mira de continuar a fornecer valor aos clientes. Para evitar comportamentos especulativos de resposta aleatória dos nós, os nós que se afastam continuamente do consenso terão seus tokens de staking reduzidos. De modo geral, a Mira garante a participação honesta dos operadores de nós na validação por meio de um jogo de mecanismos econômicos.

A Mira oferece uma nova abordagem para garantir a confiabilidade da IA. Com base em múltiplos modelos de IA, construiu uma rede de validação de consenso descentralizada, trazendo maior confiabilidade aos serviços de IA para os clientes, reduzindo preconceitos e alucinações da IA, e atendendo à demanda dos clientes por maior precisão e exatidão. Ao mesmo tempo, proporciona benefícios aos participantes da rede Mira, com base na entrega de valor aos clientes. Em resumo, a Mira está empenhada em construir uma camada de confiança para a IA, o que impulsionará o desenvolvimento profundo das aplicações de IA.

Atualmente, já existem algumas estruturas de agentes de IA conhecidas que colaboram com a Mira. Com o lançamento da rede de teste pública da Mira, os usuários podem participar dos testes através do Klok (uma aplicação de chat LLM baseada na Mira). Usar a aplicação Klok não só permite experimentar saídas de IA validadas, mas também ganhar pontos Mira. Embora os futuros usos desses pontos ainda não tenham sido anunciados, sem dúvida oferecem um incentivo extra para a participação dos usuários.

AGENT9.13%
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • 5
  • Partilhar
Comentar
0/400
New_Ser_Ngmivip
· 8h atrás
呵 AI corrige AI armadilha, a brincadeira está a correr bem.
Ver originalResponder0
DAOTruantvip
· 8h atrás
Não consigo entender, mas parece muito impressionante.
Ver originalResponder0
BackrowObservervip
· 8h atrás
Já está a dizer que é um touro, se conseguir resolver, considero que perdi.
Ver originalResponder0
SchrodingerPrivateKeyvip
· 9h atrás
Não pode ser, AI a verificar AI?
Ver originalResponder0
StableGeniusDegenvip
· 9h atrás
Quem supervisiona os supervisores?
Ver originalResponder0
  • Pino
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)