Réseau Mira : Construire une couche de confiance pour l'IA
Récemment, le réseau Mira a officiellement lancé son test public, suscitant de larges discussions dans l'industrie sur la question de la confiance envers l'IA. L'objectif principal du réseau Mira est de construire une couche de confiance pour l'IA, afin de résoudre les problèmes de "hallucination" et de biais auxquels les systèmes d'IA sont confrontés actuellement. Alors, pourquoi l'IA doit-elle être digne de confiance ? Comment Mira s'attaque-t-il à cette problématique complexe ?
Lorsqu'on discute de l'IA, les gens se concentrent souvent sur ses capacités puissantes. Cependant, un fait incontournable est que l'IA présente des problèmes d'"hallucination" ou de biais. Ce que l'on appelle l'"hallucination" de l'IA, en termes simples, signifie que l'IA peut parfois "inventer" des informations, fournissant des explications qui semblent raisonnables sur des phénomènes qui n'existent en réalité pas. Par exemple, lorsqu'on lui pose une question qui n'est pas conforme à la réalité, comme "Pourquoi la lune est-elle rose?", l'IA peut donner une série d'explications apparemment raisonnables mais en réalité sans fondement.
Les raisons pour lesquelles l'IA présente des "hallucinations" ou des biais sont étroitement liées aux chemins technologiques actuels de l'IA. L'IA générative parvient généralement à produire des sorties cohérentes et raisonnables en prédisant le contenu "le plus probable", mais cette méthode peine à garantir la véracité des sorties. De plus, les données d'entraînement de l'IA peuvent elles-mêmes contenir des erreurs, des biais voire des contenus fictifs, ce qui affecte la qualité des sorties de l'IA. On peut dire que l'IA apprend davantage les modèles linguistiques humains que les faits eux-mêmes.
Le mécanisme de génération de probabilités et le modèle basé sur les données conduisent presque inévitablement l'IA à produire des "hallucinations". Bien que ce problème puisse ne pas avoir de conséquences graves dans des domaines de connaissances générales ou de contenu de divertissement, dans des secteurs exigeant une grande rigueur tels que la santé, le droit, l'aviation et la finance, les biais et les hallucinations de l'IA peuvent entraîner des problèmes majeurs. Par conséquent, résoudre les problèmes d'hallucinations et de biais de l'IA est devenu un défi central dans le processus de développement de l'IA.
Le projet Mira est une solution proposée pour ce problème. Il tente de réduire les biais et les illusions de l'IA en construisant une couche de confiance pour l'IA, afin d'améliorer sa fiabilité. L'idée centrale de Mira est d'utiliser le consensus entre plusieurs modèles d'IA pour valider les sorties de l'IA.
Plus précisément, Mira est un réseau de validation qui vérifie la fiabilité des sorties d'IA grâce à un consensus entre plusieurs modèles d'IA. Plus important encore, Mira adopte un mécanisme de validation de consensus décentralisé, qui est l'expertise du domaine de la cryptographie. Grâce à un mode de validation collectif, Mira est capable de réduire efficacement les biais et les hallucinations qui peuvent découler d'un modèle unique.
En termes d'architecture de vérification, le protocole Mira prend en charge la conversion de contenus complexes en déclarations indépendamment vérifiables. Les opérateurs de nœuds participent au processus de vérification de ces déclarations, et pour garantir l'honnêteté des opérateurs de nœuds, Mira a introduit des mécanismes d'incitation et de punition économiques cryptographiques.
L'architecture réseau de Mira comprend trois parties principales : la conversion de contenu, la vérification distribuée et le mécanisme de consensus. Tout d'abord, le système décompose le contenu candidat soumis par le client en différentes déclarations vérifiables, qui sont ensuite distribuées aux nœuds pour vérification. Les nœuds déterminent la validité des déclarations et compilent les résultats pour parvenir à un consensus. Enfin, ces résultats et ce consensus sont renvoyés au client. Pour protéger la vie privée du client, le contenu candidat est converti en paires de déclarations et distribué à différents nœuds de manière aléatoire afin d'éviter toute fuite d'informations lors du processus de vérification.
Les opérateurs de nœuds participent au fonctionnement du réseau en exécutant des modèles de validation, en traitant des déclarations et en soumettant des résultats de validation. Leurs revenus proviennent de la valeur créée pour les clients, c'est-à-dire de la réduction du taux d'erreur de l'IA. Dans des domaines tels que la santé, le droit, l'aviation et la finance, la réduction du taux d'erreur de l'IA peut générer une valeur énorme, c'est pourquoi les clients sont prêts à payer pour cela. Parallèlement, pour éviter que les opérateurs de nœuds ne tirent profit de la situation, le système pénalise les nœuds qui s'écartent constamment du consensus, garantissant ainsi l'intégrité du processus de validation.
Dans l'ensemble, Mira propose une nouvelle approche pour garantir la fiabilité de l'IA. En construisant un réseau de validation de consensus décentralisé sur la base de plusieurs modèles d'IA, Mira vise à offrir une plus grande fiabilité aux services d'IA de ses clients, à réduire les biais et les hallucinations de l'IA, et à répondre aux exigences de haute précision et de taux de précision de ses clients. Cette innovation devrait favoriser le développement approfondi des applications d'IA et contribuer de manière significative à la construction d'un écosystème d'IA fiable.
Actuellement, Mira a établi des partenariats avec plusieurs cadres d'agents AI réputés. Avec le lancement du réseau de test public de Mira, les utilisateurs peuvent expérimenter des sorties AI validées via Klok (une application de chat LLM basée sur Mira) et avoir la chance de gagner des points Mira. Cela offre aux utilisateurs une opportunité de comparer intuitivement les différences de sortie AI avant et après validation, contribuant ainsi à mieux comprendre la valeur du réseau Mira.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
14 J'aime
Récompense
14
6
Partager
Commentaire
0/400
DaoDeveloper
· 07-28 17:24
mécanisme de consensus intéressant pour être honnête... il faut d'abord plonger dans leur dépôt github
Voir l'originalRépondre0
shadowy_supercoder
· 07-27 18:13
Je me demande juste comment l'IA sait qu'elle est dans une illusion.
Voir l'originalRépondre0
DancingCandles
· 07-25 22:46
Trading des cryptomonnaies ! Qui se soucie encore des illusions de l'IA ?
Voir l'originalRépondre0
BloodInStreets
· 07-25 22:42
Cette vague de la couche de confiance AI, qui sont les pigeons, ce n'est pas encore certain.
Voir l'originalRépondre0
0xSleepDeprived
· 07-25 22:35
Hmm, l'IA doit encore dépendre d'autres IA pour la validation, c'est vraiment intéressant.
Voir l'originalRépondre0
TheMemefather
· 07-25 22:27
Il vaut mieux attendre d'être en ligne pour en parler.
Réseau Mira : construire une couche de confiance pour l'IA Goutte les risques d'illusions et de biais
Réseau Mira : Construire une couche de confiance pour l'IA
Récemment, le réseau Mira a officiellement lancé son test public, suscitant de larges discussions dans l'industrie sur la question de la confiance envers l'IA. L'objectif principal du réseau Mira est de construire une couche de confiance pour l'IA, afin de résoudre les problèmes de "hallucination" et de biais auxquels les systèmes d'IA sont confrontés actuellement. Alors, pourquoi l'IA doit-elle être digne de confiance ? Comment Mira s'attaque-t-il à cette problématique complexe ?
Lorsqu'on discute de l'IA, les gens se concentrent souvent sur ses capacités puissantes. Cependant, un fait incontournable est que l'IA présente des problèmes d'"hallucination" ou de biais. Ce que l'on appelle l'"hallucination" de l'IA, en termes simples, signifie que l'IA peut parfois "inventer" des informations, fournissant des explications qui semblent raisonnables sur des phénomènes qui n'existent en réalité pas. Par exemple, lorsqu'on lui pose une question qui n'est pas conforme à la réalité, comme "Pourquoi la lune est-elle rose?", l'IA peut donner une série d'explications apparemment raisonnables mais en réalité sans fondement.
Les raisons pour lesquelles l'IA présente des "hallucinations" ou des biais sont étroitement liées aux chemins technologiques actuels de l'IA. L'IA générative parvient généralement à produire des sorties cohérentes et raisonnables en prédisant le contenu "le plus probable", mais cette méthode peine à garantir la véracité des sorties. De plus, les données d'entraînement de l'IA peuvent elles-mêmes contenir des erreurs, des biais voire des contenus fictifs, ce qui affecte la qualité des sorties de l'IA. On peut dire que l'IA apprend davantage les modèles linguistiques humains que les faits eux-mêmes.
Le mécanisme de génération de probabilités et le modèle basé sur les données conduisent presque inévitablement l'IA à produire des "hallucinations". Bien que ce problème puisse ne pas avoir de conséquences graves dans des domaines de connaissances générales ou de contenu de divertissement, dans des secteurs exigeant une grande rigueur tels que la santé, le droit, l'aviation et la finance, les biais et les hallucinations de l'IA peuvent entraîner des problèmes majeurs. Par conséquent, résoudre les problèmes d'hallucinations et de biais de l'IA est devenu un défi central dans le processus de développement de l'IA.
Le projet Mira est une solution proposée pour ce problème. Il tente de réduire les biais et les illusions de l'IA en construisant une couche de confiance pour l'IA, afin d'améliorer sa fiabilité. L'idée centrale de Mira est d'utiliser le consensus entre plusieurs modèles d'IA pour valider les sorties de l'IA.
Plus précisément, Mira est un réseau de validation qui vérifie la fiabilité des sorties d'IA grâce à un consensus entre plusieurs modèles d'IA. Plus important encore, Mira adopte un mécanisme de validation de consensus décentralisé, qui est l'expertise du domaine de la cryptographie. Grâce à un mode de validation collectif, Mira est capable de réduire efficacement les biais et les hallucinations qui peuvent découler d'un modèle unique.
En termes d'architecture de vérification, le protocole Mira prend en charge la conversion de contenus complexes en déclarations indépendamment vérifiables. Les opérateurs de nœuds participent au processus de vérification de ces déclarations, et pour garantir l'honnêteté des opérateurs de nœuds, Mira a introduit des mécanismes d'incitation et de punition économiques cryptographiques.
L'architecture réseau de Mira comprend trois parties principales : la conversion de contenu, la vérification distribuée et le mécanisme de consensus. Tout d'abord, le système décompose le contenu candidat soumis par le client en différentes déclarations vérifiables, qui sont ensuite distribuées aux nœuds pour vérification. Les nœuds déterminent la validité des déclarations et compilent les résultats pour parvenir à un consensus. Enfin, ces résultats et ce consensus sont renvoyés au client. Pour protéger la vie privée du client, le contenu candidat est converti en paires de déclarations et distribué à différents nœuds de manière aléatoire afin d'éviter toute fuite d'informations lors du processus de vérification.
Les opérateurs de nœuds participent au fonctionnement du réseau en exécutant des modèles de validation, en traitant des déclarations et en soumettant des résultats de validation. Leurs revenus proviennent de la valeur créée pour les clients, c'est-à-dire de la réduction du taux d'erreur de l'IA. Dans des domaines tels que la santé, le droit, l'aviation et la finance, la réduction du taux d'erreur de l'IA peut générer une valeur énorme, c'est pourquoi les clients sont prêts à payer pour cela. Parallèlement, pour éviter que les opérateurs de nœuds ne tirent profit de la situation, le système pénalise les nœuds qui s'écartent constamment du consensus, garantissant ainsi l'intégrité du processus de validation.
Dans l'ensemble, Mira propose une nouvelle approche pour garantir la fiabilité de l'IA. En construisant un réseau de validation de consensus décentralisé sur la base de plusieurs modèles d'IA, Mira vise à offrir une plus grande fiabilité aux services d'IA de ses clients, à réduire les biais et les hallucinations de l'IA, et à répondre aux exigences de haute précision et de taux de précision de ses clients. Cette innovation devrait favoriser le développement approfondi des applications d'IA et contribuer de manière significative à la construction d'un écosystème d'IA fiable.
Actuellement, Mira a établi des partenariats avec plusieurs cadres d'agents AI réputés. Avec le lancement du réseau de test public de Mira, les utilisateurs peuvent expérimenter des sorties AI validées via Klok (une application de chat LLM basée sur Mira) et avoir la chance de gagner des points Mira. Cela offre aux utilisateurs une opportunité de comparer intuitivement les différences de sortie AI avant et après validation, contribuant ainsi à mieux comprendre la valeur du réseau Mira.