Al usar la IA, le hacemos una pregunta y responde de manera convincente, pero no podemos saber de dónde proviene realmente esa respuesta, si la "adivinó" o si realmente la ha visto en algún conjunto de datos de entrenamiento. Es como si le preguntaras a alguien algo, te da la respuesta y cada frase dice "creo que es correcto", pero nunca proporciona la fuente.



En términos simples, los modelos de lenguaje tradicionales utilizan la técnica n-gram.
1️⃣uni-gram es observar una sola palabra
2️⃣bi-gram es la unión de dos palabras
3️⃣tri-gram es una combinación de tres palabras

La lógica del lenguaje anterior proporcionará parte del contexto, pero el contenido es muy limitado, solo se basa en los problemas existentes, respondiendo según las conexiones de pequeñas frases, pero ignorando la lógica de la pregunta actual en toda la conversación.

Infini-gram es otra forma de pensar. No solo observa los problemas existentes, sino que utiliza un enfoque similar al "emparejamiento de símbolos" para comparar cada fragmento de salida del modelo con todas las "frases" que podrían aparecer en el conjunto de entrenamiento, para ver de dónde lo aprendió y con qué contribuciones está relacionado.

Por ejemplo, le preguntas al modelo: "¿Cómo se determina si una billetera es un Bot?"
Un modelo típico te dirá: “Esta dirección generalmente realiza múltiples transacciones de alta frecuencia en varios contratos DEX en un corto período de tiempo.”

La tecnología detrás de esto es en realidad bastante avanzada, utiliza un marco ∞-gram basado en suffix-array. Esencialmente, indexa todos los fragmentos del conjunto de entrenamiento por adelantado, y al momento de la salida, simplemente se compara, sin necesidad de volver a ejecutar el modelo ni depender del cálculo de gradientes. Esto significa que es rápido, estable y reproducible.

Para los usuarios, puedes saber si la respuesta del modelo es "original" o "copiada".
Para los contribuyentes de datos, puedes obtener el "derecho de autor" que te corresponde e incluso "incentivos económicos".
Esto proporciona una interfaz "explicable" para los reguladores.

Lo que OpenLedger está haciendo no es hacer que el modelo sea más "inteligente", sino más "responsable": al responder cada frase, debe dejar claro: "¿Por qué digo esto? ¿De dónde lo aprendí?"

En mi opinión, el sistema Proof of Attribution propuesto por OpenLedger es un paso clave hacia la "IA confiable" y podría ser la infraestructura central para construir la propiedad de datos y la trazabilidad de contribuciones.
UNI4.29%
Ver originales
post-image
post-image
post-image
post-image
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Compartir
Comentar
0/400
Sin comentarios
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)