Démonter le mécanisme de travail de @Mira_Network pour distinguer si l'IA dit la vérité !
La plupart des AI utilisant des modèles LLM aujourd'hui racontent souvent des absurdités de manière très sérieuse, et en réalité, elles ne peuvent pas être fiables. Ce n'est pas que la technologie ne fonctionne pas, c'est qu'il existe des limites au niveau des principes, empêchant d'exiger à la fois précision et neutralité.
Plus vous entraînez vos données, plus vous pouvez réduire les biais, mais il est facile de commencer à inventer des histoires. Plus les données sont propres, plus elles peuvent être biaisées vers une certaine position.
Le mécanisme central de Mira est la validation par consensus. En fait, cela signifie que l'on ne dépend plus de la réponse d'un seul modèle, mais que plusieurs modèles participent ensemble à l'évaluation. Ce n'est que lorsque tout le monde est d'accord que cette réponse est considérée comme validée.
Le processus se divise en trois étapes !
1⃣Binarisation La réponse de l'IA n'est pas un long paragraphe à juger, mais plutôt décomposée en petites évaluations phrase par phrase. Par exemple : La Terre tourne autour du Soleil, et la Lune tourne autour de la Terre. Mira va diviser cette phrase en : La Terre tourne autour du Soleil La lune tourne autour de la terre
Chaque phrase sera vérifiée indépendamment. Cela évite que l'ensemble semble correct alors que les détails sont complètement faux.
2⃣Validation distribuée Ces déclarations décomposées seront envoyées à différents nœuds de validation dans le réseau Mira, chaque nœud étant un modèle ou un ensemble de modèles, qui ne verront pas le contexte complet, mais seront uniquement responsables de juger de la véracité de leur propre déclaration, garantissant ainsi une validation plus neutre.
3⃣ Mécanisme de consensus de vérification Le "preuve de travail" de Mira est un raisonnement AI réel.
Chaque modèle de validation doit stake des tokens et fournir un résultat après avoir vérifié la réponse. Si la performance est mauvaise, il y aura un "slash", ce qui entraînera une réduction des tokens stakés.
Le "calcul de consensus" du modèle doit être approuvé par presque tous les modèles pour être valide. Ce mécanisme utilise le "consensus multiple" entre les modèles pour se rapprocher de la réalité elle-même.
En fin de compte, @Mira_Network ajoute simplement une couche de preuve de crédibilité aux sorties de l'IA, cette couche étant atteinte par consensus, et non vérifiée par un seul modèle.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Démonter le mécanisme de travail de @Mira_Network pour distinguer si l'IA dit la vérité !
La plupart des AI utilisant des modèles LLM aujourd'hui racontent souvent des absurdités de manière très sérieuse, et en réalité, elles ne peuvent pas être fiables. Ce n'est pas que la technologie ne fonctionne pas, c'est qu'il existe des limites au niveau des principes, empêchant d'exiger à la fois précision et neutralité.
Plus vous entraînez vos données, plus vous pouvez réduire les biais, mais il est facile de commencer à inventer des histoires. Plus les données sont propres, plus elles peuvent être biaisées vers une certaine position.
Le mécanisme central de Mira est la validation par consensus. En fait, cela signifie que l'on ne dépend plus de la réponse d'un seul modèle, mais que plusieurs modèles participent ensemble à l'évaluation. Ce n'est que lorsque tout le monde est d'accord que cette réponse est considérée comme validée.
Le processus se divise en trois étapes !
1⃣Binarisation
La réponse de l'IA n'est pas un long paragraphe à juger, mais plutôt décomposée en petites évaluations phrase par phrase.
Par exemple : La Terre tourne autour du Soleil, et la Lune tourne autour de la Terre.
Mira va diviser cette phrase en :
La Terre tourne autour du Soleil
La lune tourne autour de la terre
Chaque phrase sera vérifiée indépendamment. Cela évite que l'ensemble semble correct alors que les détails sont complètement faux.
2⃣Validation distribuée
Ces déclarations décomposées seront envoyées à différents nœuds de validation dans le réseau Mira, chaque nœud étant un modèle ou un ensemble de modèles, qui ne verront pas le contexte complet, mais seront uniquement responsables de juger de la véracité de leur propre déclaration, garantissant ainsi une validation plus neutre.
3⃣ Mécanisme de consensus de vérification
Le "preuve de travail" de Mira est un raisonnement AI réel.
Chaque modèle de validation doit stake des tokens et fournir un résultat après avoir vérifié la réponse.
Si la performance est mauvaise, il y aura un "slash", ce qui entraînera une réduction des tokens stakés.
Le "calcul de consensus" du modèle doit être approuvé par presque tous les modèles pour être valide. Ce mécanisme utilise le "consensus multiple" entre les modèles pour se rapprocher de la réalité elle-même.
En fin de compte, @Mira_Network ajoute simplement une couche de preuve de crédibilité aux sorties de l'IA, cette couche étant atteinte par consensus, et non vérifiée par un seul modèle.