Le chemin de la confiance en IA : Comment le réseau Mira résout les problèmes de biais et d'illusions de l'IA
Récemment, un test public nommé Mira a attiré l'attention de l'industrie. Ce réseau vise à construire une couche de confiance pour l'IA, ce qui nous amène à nous interroger : pourquoi l'IA a-t-elle besoin d'être digne de confiance ? Comment Mira résout-elle ce problème ?
Lorsqu'on discute de l'IA, les gens ont souvent tendance à se concentrer davantage sur ses capacités impressionnantes. Cependant, une question intéressante et souvent négligée est celle des "illusions" ou des biais de l'IA. Ce que l'on appelle les "illusions" de l'IA, en termes simples, signifie que l'IA peut parfois "inventer" des choses, en racontant des absurdités avec un sérieux apparent. Par exemple, si vous demandez à l'IA pourquoi la lune est rose, elle pourrait donner une série d'explications qui semblent raisonnables mais qui, en réalité, sont complètement infondées.
La raison pour laquelle l'IA présente des "hallucinations" ou des biais est liée à certaines des voies technologiques actuelles de l'IA. L'IA générative parvient généralement à atteindre la cohérence et la rationalité en prédisant le contenu "le plus probable", mais cette méthode est difficile à vérifier en termes de véracité. De plus, les données d'entraînement elles-mêmes peuvent contenir des erreurs, des biais ou même des contenus fictifs, ce qui affecte la qualité de la sortie de l'IA. En d'autres termes, l'IA apprend des motifs linguistiques humains, et non des faits eux-mêmes.
Le mécanisme de génération de probabilités actuel et le modèle axé sur les données entraînent presque inévitablement la possibilité d'illusions d'IA. Pour des contenus de connaissances générales ou de divertissement, cette sortie biaisée ou illusoire peut temporairement ne pas avoir de conséquences directes. Mais si cela se produit dans des domaines exigeant une grande rigueur tels que la médecine, le droit, l'aviation ou la finance, cela peut avoir des impacts majeurs. Par conséquent, résoudre les illusions et les biais de l'IA est devenu l'un des problèmes centraux dans le processus d'évolution de l'IA.
Pour résoudre ce problème, l'industrie a déjà proposé plusieurs solutions. Certaines utilisent des techniques de génération améliorée par la recherche, combinant l'IA avec des bases de données en temps réel pour donner la priorité aux faits vérifiés. D'autres intègrent des retours humains, corrigeant les erreurs du modèle par l'annotation manuelle et la supervision humaine.
Le projet Mira vise à construire une couche de confiance pour l'IA, réduire les biais et les illusions de l'IA, et améliorer la fiabilité de l'IA. Alors, comment Mira atteint-il cet objectif ?
La philosophie fondamentale de Mira est de valider les sorties de l'IA par le consensus de plusieurs modèles d'IA. Il s'agit essentiellement d'un réseau de validation qui utilise le consensus de plusieurs modèles d'IA pour vérifier la fiabilité des sorties de l'IA. Plus important encore, Mira adopte une méthode de validation par consensus décentralisée.
La clé du réseau Mira réside dans la validation de consensus décentralisée. Il tire parti de l'expertise dans le domaine de la cryptographie tout en combinant les avantages de la collaboration multi-modèle, réduisant ainsi les biais et les illusions grâce à un modèle de validation collective.
En termes d'architecture de validation, le protocole Mira prend en charge la conversion de contenus complexes en déclarations vérifiables de manière indépendante. Ces déclarations nécessitent la participation des opérateurs de nœuds à la validation. Pour garantir l'honnêteté des opérateurs de nœuds, Mira adopte un mécanisme d'incitation et de sanction économique cryptographique. Différents modèles d'IA et des opérateurs de nœuds décentralisés participent ensemble pour garantir la fiabilité des résultats de validation.
L'architecture réseau de Mira comprend trois parties : la conversion de contenu, la validation distribuée et le mécanisme de consensus, afin d'assurer la fiabilité de la validation. Parmi celles-ci, la conversion de contenu est une étape importante. Le réseau Mira commence par décomposer le contenu candidat en différentes déclarations vérifiables, garantissant ainsi que le modèle puisse comprendre le contenu dans le même contexte. Ces déclarations sont ensuite distribuées par le système aux nœuds pour vérification, afin de déterminer leur validité, et les résultats sont compilés pour parvenir à un consensus. Enfin, ces résultats et ce consensus sont renvoyés aux clients. Pour protéger la confidentialité des clients, le contenu candidat est décomposé en paires de déclarations et distribué à différents nœuds de manière aléatoire, afin d'éviter toute fuite d'informations lors du processus de validation.
Les opérateurs de nœuds sont responsables du fonctionnement des modèles de validateurs, du traitement des déclarations et de la soumission des résultats de validation. Ils sont prêts à participer à la validation car cela leur permet de générer des revenus. Ces revenus proviennent de la valeur créée pour les clients. L'objectif du réseau Mira est de réduire le taux d'erreurs de l'IA (hallucinations et biais), et une fois cet objectif atteint, cela pourra générer une valeur considérable dans des domaines tels que la santé, le droit, l'aviation et la finance. Par conséquent, les clients sont prêts à payer pour cela. Bien sûr, la durabilité et l'échelle des paiements dépendent de la capacité du réseau Mira à continuer à apporter de la valeur aux clients. Pour prévenir les comportements spéculatifs des nœuds qui répondent de manière aléatoire, les nœuds qui s'écartent continuellement du consensus seront pénalisés par une réduction de leurs jetons de mise. En somme, Mira garantit la participation honnête des opérateurs de nœuds à la validation grâce à un mécanisme économique de jeu.
Mira propose une nouvelle approche pour garantir la fiabilité de l'IA. Sur la base de plusieurs modèles d'IA, elle a construit un réseau de validation de consensus décentralisé, apportant une plus grande fiabilité aux services d'IA pour les clients, réduisant les biais et les illusions de l'IA, et répondant à la demande des clients pour une plus grande précision et exactitude. En même temps, tout en offrant de la valeur aux clients, cela génère également des bénéfices pour les participants du réseau Mira. En résumé, Mira s'engage à construire une couche de confiance pour l'IA, ce qui stimulera le développement approfondi des applications d'IA.
Actuellement, plusieurs cadres d'agent AI connus collaborent avec Mira. Avec le lancement du réseau de test public de Mira, les utilisateurs peuvent participer aux tests via Klok (une application de chat LLM basée sur Mira). Utiliser l'application Klok permet non seulement d'expérimenter des sorties AI vérifiées, mais aussi de gagner des points Mira. Bien que les futures utilisations de ces points n'aient pas encore été annoncées, cela offre sans aucun doute aux utilisateurs une motivation supplémentaire pour participer.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
12 J'aime
Récompense
12
5
Partager
Commentaire
0/400
New_Ser_Ngmi
· Il y a 8h
Eh, l'IA corrige l'IA, le piège de la poupée russe est plutôt fluide.
Voir l'originalRépondre0
DAOTruant
· Il y a 8h
Je ne comprends pas, mais je trouve ça très impressionnant.
Voir l'originalRépondre0
BackrowObserver
· Il y a 8h
Encore en train de parler de bull, si ça peut être résolu, je perds.
Réseau Mira : validation de consensus multi-modèles pour résoudre les problèmes de biais et d'hallucination de l'IA
Le chemin de la confiance en IA : Comment le réseau Mira résout les problèmes de biais et d'illusions de l'IA
Récemment, un test public nommé Mira a attiré l'attention de l'industrie. Ce réseau vise à construire une couche de confiance pour l'IA, ce qui nous amène à nous interroger : pourquoi l'IA a-t-elle besoin d'être digne de confiance ? Comment Mira résout-elle ce problème ?
Lorsqu'on discute de l'IA, les gens ont souvent tendance à se concentrer davantage sur ses capacités impressionnantes. Cependant, une question intéressante et souvent négligée est celle des "illusions" ou des biais de l'IA. Ce que l'on appelle les "illusions" de l'IA, en termes simples, signifie que l'IA peut parfois "inventer" des choses, en racontant des absurdités avec un sérieux apparent. Par exemple, si vous demandez à l'IA pourquoi la lune est rose, elle pourrait donner une série d'explications qui semblent raisonnables mais qui, en réalité, sont complètement infondées.
La raison pour laquelle l'IA présente des "hallucinations" ou des biais est liée à certaines des voies technologiques actuelles de l'IA. L'IA générative parvient généralement à atteindre la cohérence et la rationalité en prédisant le contenu "le plus probable", mais cette méthode est difficile à vérifier en termes de véracité. De plus, les données d'entraînement elles-mêmes peuvent contenir des erreurs, des biais ou même des contenus fictifs, ce qui affecte la qualité de la sortie de l'IA. En d'autres termes, l'IA apprend des motifs linguistiques humains, et non des faits eux-mêmes.
Le mécanisme de génération de probabilités actuel et le modèle axé sur les données entraînent presque inévitablement la possibilité d'illusions d'IA. Pour des contenus de connaissances générales ou de divertissement, cette sortie biaisée ou illusoire peut temporairement ne pas avoir de conséquences directes. Mais si cela se produit dans des domaines exigeant une grande rigueur tels que la médecine, le droit, l'aviation ou la finance, cela peut avoir des impacts majeurs. Par conséquent, résoudre les illusions et les biais de l'IA est devenu l'un des problèmes centraux dans le processus d'évolution de l'IA.
Pour résoudre ce problème, l'industrie a déjà proposé plusieurs solutions. Certaines utilisent des techniques de génération améliorée par la recherche, combinant l'IA avec des bases de données en temps réel pour donner la priorité aux faits vérifiés. D'autres intègrent des retours humains, corrigeant les erreurs du modèle par l'annotation manuelle et la supervision humaine.
Le projet Mira vise à construire une couche de confiance pour l'IA, réduire les biais et les illusions de l'IA, et améliorer la fiabilité de l'IA. Alors, comment Mira atteint-il cet objectif ?
La philosophie fondamentale de Mira est de valider les sorties de l'IA par le consensus de plusieurs modèles d'IA. Il s'agit essentiellement d'un réseau de validation qui utilise le consensus de plusieurs modèles d'IA pour vérifier la fiabilité des sorties de l'IA. Plus important encore, Mira adopte une méthode de validation par consensus décentralisée.
La clé du réseau Mira réside dans la validation de consensus décentralisée. Il tire parti de l'expertise dans le domaine de la cryptographie tout en combinant les avantages de la collaboration multi-modèle, réduisant ainsi les biais et les illusions grâce à un modèle de validation collective.
En termes d'architecture de validation, le protocole Mira prend en charge la conversion de contenus complexes en déclarations vérifiables de manière indépendante. Ces déclarations nécessitent la participation des opérateurs de nœuds à la validation. Pour garantir l'honnêteté des opérateurs de nœuds, Mira adopte un mécanisme d'incitation et de sanction économique cryptographique. Différents modèles d'IA et des opérateurs de nœuds décentralisés participent ensemble pour garantir la fiabilité des résultats de validation.
L'architecture réseau de Mira comprend trois parties : la conversion de contenu, la validation distribuée et le mécanisme de consensus, afin d'assurer la fiabilité de la validation. Parmi celles-ci, la conversion de contenu est une étape importante. Le réseau Mira commence par décomposer le contenu candidat en différentes déclarations vérifiables, garantissant ainsi que le modèle puisse comprendre le contenu dans le même contexte. Ces déclarations sont ensuite distribuées par le système aux nœuds pour vérification, afin de déterminer leur validité, et les résultats sont compilés pour parvenir à un consensus. Enfin, ces résultats et ce consensus sont renvoyés aux clients. Pour protéger la confidentialité des clients, le contenu candidat est décomposé en paires de déclarations et distribué à différents nœuds de manière aléatoire, afin d'éviter toute fuite d'informations lors du processus de validation.
Les opérateurs de nœuds sont responsables du fonctionnement des modèles de validateurs, du traitement des déclarations et de la soumission des résultats de validation. Ils sont prêts à participer à la validation car cela leur permet de générer des revenus. Ces revenus proviennent de la valeur créée pour les clients. L'objectif du réseau Mira est de réduire le taux d'erreurs de l'IA (hallucinations et biais), et une fois cet objectif atteint, cela pourra générer une valeur considérable dans des domaines tels que la santé, le droit, l'aviation et la finance. Par conséquent, les clients sont prêts à payer pour cela. Bien sûr, la durabilité et l'échelle des paiements dépendent de la capacité du réseau Mira à continuer à apporter de la valeur aux clients. Pour prévenir les comportements spéculatifs des nœuds qui répondent de manière aléatoire, les nœuds qui s'écartent continuellement du consensus seront pénalisés par une réduction de leurs jetons de mise. En somme, Mira garantit la participation honnête des opérateurs de nœuds à la validation grâce à un mécanisme économique de jeu.
Mira propose une nouvelle approche pour garantir la fiabilité de l'IA. Sur la base de plusieurs modèles d'IA, elle a construit un réseau de validation de consensus décentralisé, apportant une plus grande fiabilité aux services d'IA pour les clients, réduisant les biais et les illusions de l'IA, et répondant à la demande des clients pour une plus grande précision et exactitude. En même temps, tout en offrant de la valeur aux clients, cela génère également des bénéfices pour les participants du réseau Mira. En résumé, Mira s'engage à construire une couche de confiance pour l'IA, ce qui stimulera le développement approfondi des applications d'IA.
Actuellement, plusieurs cadres d'agent AI connus collaborent avec Mira. Avec le lancement du réseau de test public de Mira, les utilisateurs peuvent participer aux tests via Klok (une application de chat LLM basée sur Mira). Utiliser l'application Klok permet non seulement d'expérimenter des sorties AI vérifiées, mais aussi de gagner des points Mira. Bien que les futures utilisations de ces points n'aient pas encore été annoncées, cela offre sans aucun doute aux utilisateurs une motivation supplémentaire pour participer.