Red Mira: Verificación de consenso de múltiples modelos para resolver problemas de sesgo y alucinaciones en la IA

robot
Generación de resúmenes en curso

El camino de la confianza en la IA: cómo la red Mira aborda los problemas de sesgo y alucinaciones en la IA

Recientemente, una red de prueba pública llamada Mira ha llamado la atención de la industria. Esta red tiene como objetivo construir una capa de confianza para la IA, lo que nos lleva a preguntarnos: ¿por qué necesita la IA ser confiable? ¿Cómo aborda Mira este problema?

Al discutir la IA, las personas a menudo se centran más en su poderosa capacidad. Sin embargo, un problema interesante y a menudo pasado por alto es la "ilusión" o sesgo que existe en la IA. La llamada "ilusión" de la IA, en términos simples, significa que a veces la IA "inventa" cosas, hablando con seriedad de tonterías. Por ejemplo, si le preguntas a la IA por qué la luna es rosa, puede ofrecer una serie de explicaciones que parecen razonables pero que en realidad no tienen fundamento.

La existencia de "ilusiones" o sesgos en la IA está relacionada con algunas de las rutas tecnológicas actuales de la IA. La IA generativa generalmente logra coherencia y razonabilidad al predecir el contenido "más probable", pero este enfoque es difícil de verificar en términos de verdad. Además, los datos de entrenamiento pueden contener errores, sesgos e incluso contenido ficticio, lo que puede afectar la calidad de salida de la IA. En otras palabras, la IA aprende patrones de lenguaje humano, no hechos en sí mismos.

El mecanismo de generación de probabilidades actual y el modelo impulsado por datos casi inevitablemente traerán la posibilidad de ilusiones de IA. Para el contenido de conocimiento general o entretenimiento, esta salida sesgada o ilusoria puede no tener consecuencias directas de inmediato. Pero si ocurre en campos que requieren una alta rigurosidad como la medicina, el derecho, la aviación o las finanzas, podría tener un impacto significativo. Por lo tanto, abordar las ilusiones y sesgos de la IA se ha convertido en uno de los problemas centrales en el proceso de evolución de la IA.

Para abordar este problema, la industria ha propuesto varias soluciones. Algunas utilizan tecnología de generación mejorada por búsqueda, combinando IA con bases de datos en tiempo real para priorizar la salida de hechos verificados. Otras introducen retroalimentación humana, corrigiendo los errores del modelo a través de anotaciones manuales y supervisión humana.

El objetivo del proyecto Mira es construir una capa de confianza para la IA, reducir los sesgos y alucinaciones de la IA, y mejorar la fiabilidad de la IA. Entonces, ¿cómo logra Mira este objetivo?

La filosofía central de Mira es validar la salida de la IA a través del consenso de múltiples modelos de IA. Es esencialmente una red de verificación que utiliza el consenso de varios modelos de IA para validar la fiabilidad de la salida de la IA. Más importante aún, Mira adopta un enfoque de verificación de consenso descentralizado.

La clave de la red Mira radica en la validación de consenso descentralizado. Aprovecha la experiencia en el campo de la criptografía, al tiempo que combina las ventajas de la colaboración de múltiples modelos, mediante un modo de validación colectiva para reducir sesgos y alucinaciones.

En términos de la arquitectura de verificación, el protocolo Mira admite la conversión de contenido complejo en declaraciones que pueden ser verificadas de forma independiente. Estas declaraciones requieren la participación de los operadores de nodos en la verificación. Para garantizar la honestidad de los operadores de nodos, Mira utiliza incentivos económicos criptográficos y mecanismos de penalización. Diferentes modelos de IA y operadores de nodos descentralizados participan conjuntamente para asegurar la fiabilidad de los resultados de verificación.

La arquitectura de la red de Mira incluye tres partes: conversión de contenido, verificación distribuida y mecanismo de consenso, para lograr la fiabilidad de la verificación. Entre ellas, la conversión de contenido es un paso importante. La red de Mira primero descompone el contenido candidato en diferentes declaraciones verificables, asegurando que el modelo pueda entender el contenido en el mismo contexto. Estas declaraciones son luego distribuidas por el sistema a los nodos para su verificación, a fin de determinar su validez, y los resultados se consolidan para alcanzar un consenso. Finalmente, estos resultados y el consenso se devuelven al cliente. Para proteger la privacidad del cliente, el contenido candidato se convierte y se descompone en pares de declaraciones, y se distribuye a diferentes nodos de manera fragmentada aleatoriamente, para evitar la filtración de información durante el proceso de verificación.

Los operadores de nodos son responsables de ejecutar el modelo de validador, procesar declaraciones y presentar resultados de validación. La razón por la que están dispuestos a participar en la validación es porque pueden obtener recompensas. Estas recompensas provienen del valor creado para los clientes. El objetivo de la red Mira es reducir la tasa de error de la IA (alucinaciones y sesgos), y una vez que se logre este objetivo, podrá generar un gran valor en áreas como la medicina, el derecho, la aviación y las finanzas. Por lo tanto, los clientes están dispuestos a pagar por ello. Por supuesto, la sostenibilidad y la escala del pago dependen de si la red Mira puede continuar brindando valor a los clientes. Para prevenir el comportamiento especulativo de respuestas aleatorias de los nodos, los nodos que se desvíen continuamente del consenso serán penalizados con la reducción de tokens en stake. En general, Mira asegura que los operadores de nodos participen honestamente en la validación a través de la competencia de mecanismos económicos.

Mira ofrece un nuevo enfoque para lograr la confiabilidad de la IA. Basándose en múltiples modelos de IA, ha construido una red de validación de consenso descentralizada, lo que aporta una mayor confiabilidad a los servicios de IA para los clientes, reduce el sesgo y las alucinaciones de la IA, y satisface la demanda de los clientes por una mayor precisión y tasa de acierto. Al mismo tiempo, además de proporcionar valor a los clientes, también genera ingresos para los participantes de la red de Mira. En resumen, Mira se dedica a construir una capa de confianza para la IA, lo que impulsará el desarrollo profundo de las aplicaciones de IA.

Actualmente, algunos marcos de agentes de IA conocidos han comenzado a colaborar con Mira. Con el lanzamiento de la red de pruebas pública de Mira, los usuarios pueden participar en las pruebas a través de Klok (una aplicación de chat LLM basada en Mira). Usar la aplicación Klok no solo permite experimentar salidas de IA verificadas, sino que también se pueden ganar puntos Mira. Aunque los futuros usos de estos puntos aún no se han anunciado, sin duda proporcionan un incentivo adicional para que los usuarios participen.

AGENT5.3%
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • 5
  • Compartir
Comentar
0/400
New_Ser_Ngmivip
· hace12h
¡Eh! La IA corrige a la IA, ¡trampa de muñecas rusas juega bastante bien!
Ver originalesResponder0
DAOTruantvip
· hace12h
No entiendo, pero se siente muy poderoso.
Ver originalesResponder0
BackrowObservervip
· hace12h
Otra vez está hablando tonterías, si puede resolverlo, entonces admito que perdí.
Ver originalesResponder0
SchrodingerPrivateKeyvip
· hace12h
¿No puede ser que la IA verifique a la IA?
Ver originalesResponder0
StableGeniusDegenvip
· hace12h
¿Quién supervisa a los supervisores?
Ver originalesResponder0
  • Anclado
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)