Lors de l'utilisation de l'IA, nous lui posons une question, elle répond de manière convaincante, mais nous ne pouvons pas savoir d'où vient cette réponse, si elle l'a "devinée" ou si elle a réellement vu cela dans un segment de données d'entraînement. C'est comme si vous posiez une question à une personne, elle vous donne la réponse, chaque phrase disant "je pense que c'est vrai", mais elle ne donne jamais de source.



Comprendre simplement, les modèles de langage traditionnels utilisent la technique n-gram.
1️⃣uni-gram est de regarder un seul mot
2️⃣bi-gram est deux mots liés ensemble
3️⃣tri-gram est une combinaison de trois mots

La logique linguistique ci-dessus fournira une partie du contexte, mais le contenu est très limité, ne tenant compte que des problèmes existants, répondant en fonction des petites phrases liées, tout en ignorant la logique de la question actuelle dans l'ensemble de la conversation.

Infini-gram est une autre approche. Il ne se contente pas d'examiner les problèmes existants, mais utilise une méthode similaire au "matching de symboles" pour comparer chaque segment de sortie du modèle avec toutes les "phrases" possibles du jeu d'entraînement, afin de déterminer d'où il a appris et à qui la contribution est liée.

Par exemple, vous demandez au modèle : "Comment déterminer si un portefeuille est un Bot ?"
Un modèle général vous dira : « Cette adresse effectue généralement des transactions à haute fréquence sur plusieurs contrats DEX en très peu de temps. »

La technologie derrière est en fait assez hardcore, utilisant un cadre ∞-gram basé sur le suffix-array - en essence, elle pré-construit des index de tous les segments dans l'ensemble d'entraînement, et lors de la sortie, elle compare directement sans avoir besoin de relancer le modèle ou de compter les gradients. Cela signifie rapide, stable et reproductible.

Pour les utilisateurs, vous pouvez savoir si la réponse du modèle est "originale" ou "copiée".
Pour les contributeurs de données, vous pouvez obtenir le "droit de citation" qui vous revient même un "incitatif économique".
Cela fournit une interface "expliquable" pour les régulateurs.

Ce que fait OpenLedger, ce n'est pas de rendre le modèle plus "intelligent", mais plus "responsable" - en répondant à chaque phrase, il peut clairement dire : "Pourquoi je dis cela, d'où je l'ai appris".

À mon avis, le système Proof of Attribution proposé par OpenLedger est un pas clé vers l'"IA de confiance" et pourrait constituer l'infrastructure de base pour établir la propriété des données et la traçabilité des contributions.
UNI3.75%
Voir l'original
post-image
post-image
post-image
post-image
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Partager
Commentaire
0/400
Aucun commentaire
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)