Desmontando o mecanismo de trabalho da @Mira_Network para identificar se o que a IA diz é verdade!
A maioria das IAs que usam modelos LLM atualmente costuma falar coisas sem sentido de forma séria, na verdade não conseguem ser confiáveis. Não é que a tecnologia não funcione, é que existem limitações na própria teoria, não podendo ser ao mesmo tempo precisas e neutras.
Quanto mais dados você treina, mais consegue reduzir preconceitos, mas é fácil começar a inventar histórias. Quanto mais limpos os dados, mais podem ser tendenciosos para uma determinada posição.
O mecanismo central da Mira é a validação de consenso. Na verdade, não depende mais da resposta de um único modelo, mas sim da participação conjunta de vários modelos na avaliação. Somente quando todos concordam, é que essa resposta é considerada validada.
Todo o processo divide-se em três etapas!
1⃣Binarização A resposta da IA não deve ser avaliada como um parágrafo inteiro, mas sim dividida em pequenas avaliações frase a frase. Por exemplo: a Terra gira em torno do Sol, a Lua gira em torno da Terra. Mira vai dividir esta frase em: A Terra gira em torno do Sol A lua gira em torno da Terra
Cada frase será validada de forma independente. Isso evita que o todo pareça correto, enquanto os detalhes estão completamente errados.
2⃣Validação distribuída As afirmações extraídas serão enviadas para diferentes nós de validação na rede Mira, onde cada nó é um modelo ou um conjunto de modelos, que não verão o contexto completo, apenas responsáveis por determinar a veracidade da sua própria afirmação, garantindo que a validação seja mais neutra.
3⃣Verificação do mecanismo de consenso O "proof of work" da Mira é uma inferência de IA real.
Cada modelo de validação deve fazer stake (apostar) tokens, e após a validação, deve fornecer os resultados. Se o desempenho for ruim, será "slash", retirando os tokens apostados.
O "cálculo de consenso" do modelo deve ser aprovado apenas se quase todos os modelos concordarem com um único julgamento. Este mecanismo utiliza o "consenso múltiplo" entre os modelos para se aproximar da própria realidade.
No fim das contas, @Mira_Network acrescentou uma camada de prova de credibilidade à saída da IA, e essa camada é alcançada através do consenso, e não pela validação de um único modelo.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
Desmontando o mecanismo de trabalho da @Mira_Network para identificar se o que a IA diz é verdade!
A maioria das IAs que usam modelos LLM atualmente costuma falar coisas sem sentido de forma séria, na verdade não conseguem ser confiáveis. Não é que a tecnologia não funcione, é que existem limitações na própria teoria, não podendo ser ao mesmo tempo precisas e neutras.
Quanto mais dados você treina, mais consegue reduzir preconceitos, mas é fácil começar a inventar histórias. Quanto mais limpos os dados, mais podem ser tendenciosos para uma determinada posição.
O mecanismo central da Mira é a validação de consenso. Na verdade, não depende mais da resposta de um único modelo, mas sim da participação conjunta de vários modelos na avaliação. Somente quando todos concordam, é que essa resposta é considerada validada.
Todo o processo divide-se em três etapas!
1⃣Binarização
A resposta da IA não deve ser avaliada como um parágrafo inteiro, mas sim dividida em pequenas avaliações frase a frase.
Por exemplo: a Terra gira em torno do Sol, a Lua gira em torno da Terra.
Mira vai dividir esta frase em:
A Terra gira em torno do Sol
A lua gira em torno da Terra
Cada frase será validada de forma independente. Isso evita que o todo pareça correto, enquanto os detalhes estão completamente errados.
2⃣Validação distribuída
As afirmações extraídas serão enviadas para diferentes nós de validação na rede Mira, onde cada nó é um modelo ou um conjunto de modelos, que não verão o contexto completo, apenas responsáveis por determinar a veracidade da sua própria afirmação, garantindo que a validação seja mais neutra.
3⃣Verificação do mecanismo de consenso
O "proof of work" da Mira é uma inferência de IA real.
Cada modelo de validação deve fazer stake (apostar) tokens, e após a validação, deve fornecer os resultados.
Se o desempenho for ruim, será "slash", retirando os tokens apostados.
O "cálculo de consenso" do modelo deve ser aprovado apenas se quase todos os modelos concordarem com um único julgamento. Este mecanismo utiliza o "consenso múltiplo" entre os modelos para se aproximar da própria realidade.
No fim das contas, @Mira_Network acrescentou uma camada de prova de credibilidade à saída da IA, e essa camada é alcançada através do consenso, e não pela validação de um único modelo.