Red Mira: Construyendo la capa de confianza para la IA
Recientemente, se lanzó oficialmente la red de prueba pública de Mira, lo que ha generado una amplia discusión en la industria sobre la credibilidad de la IA. El objetivo central de la red Mira es construir una capa de confianza para la IA, abordando los problemas de "ilusiones" y sesgos que enfrentan los sistemas de IA actuales. Entonces, ¿por qué necesita confiarse en la IA? ¿Cómo está abordando Mira este complejo problema?
Al discutir la IA, la gente a menudo se centra más en su poderosa capacidad. Sin embargo, un hecho que no se puede ignorar es que la IA tiene problemas de "alucinaciones" o sesgos. Lo que se llama "alucinaciones" de la IA, en términos simples, es que la IA a veces "inventa" información, explicando de manera aparentemente razonable fenómenos que en realidad no existen. Por ejemplo, cuando se le pregunta "¿por qué la luna es rosa?", una pregunta que no se ajusta a la realidad, la IA puede proporcionar una serie de explicaciones que parecen razonables pero que en realidad no tienen fundamento.
Las razones por las que la IA presenta "alucinaciones" o sesgos están estrechamente relacionadas con la trayectoria tecnológica actual de la IA. La IA generativa suele lograr salidas coherentes y razonables al predecir el contenido "más probable", pero este enfoque dificulta garantizar la veracidad de las salidas. Además, los datos de entrenamiento de la IA pueden contener errores, sesgos e incluso contenido ficticio, lo que afecta la calidad de la salida de la IA. Se puede decir que la IA está aprendiendo más los patrones lingüísticos humanos que los hechos en sí.
El actual mecanismo de generación de probabilidades y el modelo impulsado por datos casi inevitablemente conducen a que la IA produzca "ilusiones". Aunque en el ámbito del conocimiento general o el contenido de entretenimiento este problema puede no causar consecuencias graves temporalmente, en campos que requieren alta rigurosidad como la medicina, el derecho, la aviación y las finanzas, los sesgos y las ilusiones de la IA pueden dar lugar a problemas significativos. Por lo tanto, abordar los problemas de ilusiones y sesgos en la IA se ha convertido en un desafío central en el proceso de desarrollo de la IA.
El proyecto Mira es una solución propuesta para este problema. Intenta reducir los sesgos y alucinaciones de la IA y mejorar su fiabilidad mediante la construcción de una capa de confianza para la IA. La idea central de Mira es validar la salida de la IA mediante el consenso de múltiples modelos de IA.
En concreto, Mira es una red de validación que verifica la fiabilidad de las salidas de IA a través del consenso de múltiples modelos de IA. Más importante aún, Mira adopta un mecanismo de verificación de consenso descentralizado, que es una especialidad en el campo de las criptomonedas. A través de un modelo de validación colectiva, Mira puede reducir eficazmente los sesgos y las alucinaciones que podrían generar un único modelo.
En términos de arquitectura de validación, el protocolo Mira admite la conversión de contenido complejo en declaraciones verificables de forma independiente. Los operadores de nodos participan en el proceso de verificación de estas declaraciones, y para garantizar el comportamiento honesto de los operadores de nodos, Mira introduce incentivos y mecanismos de penalización en la economía criptográfica.
La arquitectura de red de Mira incluye tres partes principales: conversión de contenido, verificación distribuida y mecanismo de consenso. Primero, el sistema descompone el contenido candidato enviado por el cliente en diferentes declaraciones verificables, que luego se distribuyen a los nodos para su validación. Los nodos determinan la validez de las declaraciones y resumen los resultados para alcanzar un consenso. Finalmente, estos resultados y el consenso se devuelven al cliente. Para proteger la privacidad del cliente, el contenido candidato se convierte en pares de declaraciones y se distribuye a diferentes nodos de manera fragmentada y aleatoria, evitando la filtración de información durante el proceso de verificación.
Los operadores de nodos participan en el funcionamiento de la red ejecutando modelos de validación, procesando declaraciones y enviando resultados de validación. Sus ingresos provienen del valor creado para los clientes, es decir, reducir la tasa de error de la IA. En campos como la salud, el derecho, la aviación y las finanzas, reducir la tasa de error de la IA puede generar un valor enorme, por lo que los clientes están dispuestos a pagar por ello. Al mismo tiempo, para prevenir que los operadores de nodos se aprovechen de la situación, el sistema penaliza a los nodos que se desvíen continuamente del consenso, asegurando así la honestidad del proceso de validación.
En general, Mira ofrece una nueva solución para lograr la fiabilidad de la IA. Al construir una red de verificación de consenso descentralizada sobre múltiples modelos de IA, Mira tiene como objetivo proporcionar a los servicios de IA de los clientes una mayor fiabilidad, reducir los sesgos y alucinaciones de la IA, y satisfacer la demanda de los clientes por alta precisión y exactitud. Esta innovación tiene el potencial de impulsar el desarrollo profundo de las aplicaciones de IA y contribuir de manera significativa a la construcción de un ecosistema de IA confiable.
Actualmente, Mira ha establecido asociaciones con varios marcos de agentes de IA reconocidos. Con el lanzamiento de la red de pruebas pública de Mira, los usuarios pueden experimentar salidas de IA verificadas a través de Klok (una aplicación de chat LLM basada en Mira) y tener la oportunidad de ganar puntos Mira. Esto brinda a los usuarios una oportunidad intuitiva para comparar las diferencias en las salidas de IA antes y después de la verificación, lo que ayuda a comprender mejor el valor de la red Mira.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
14 me gusta
Recompensa
14
6
Compartir
Comentar
0/400
DaoDeveloper
· 07-28 17:24
mecanismo de consenso interesante, para ser honesto... necesito profundizar en su repositorio de github primero, sin embargo
Ver originalesResponder0
shadowy_supercoder
· 07-27 18:13
Solo pregunto cómo sabe la IA que está en una ilusión.
Ver originalesResponder0
DancingCandles
· 07-25 22:46
Comercio de criptomonedas! ¿A quién le importa si la IA tiene ilusiones o no?
Ver originalesResponder0
BloodInStreets
· 07-25 22:42
En esta ronda de la capa de confianza de IA, todavía no está claro quiénes son los tontos.
Ver originalesResponder0
0xSleepDeprived
· 07-25 22:35
Ajá, la IA todavía necesita de otra IA para validar, es realmente interesante.
Ver originalesResponder0
TheMemefather
· 07-25 22:27
Soplar bien no es tan bueno como decirlo después de lanzarse.
Red Mira: construir la capa de confianza de la IA Soltar el riesgo de ilusiones y sesgos
Red Mira: Construyendo la capa de confianza para la IA
Recientemente, se lanzó oficialmente la red de prueba pública de Mira, lo que ha generado una amplia discusión en la industria sobre la credibilidad de la IA. El objetivo central de la red Mira es construir una capa de confianza para la IA, abordando los problemas de "ilusiones" y sesgos que enfrentan los sistemas de IA actuales. Entonces, ¿por qué necesita confiarse en la IA? ¿Cómo está abordando Mira este complejo problema?
Al discutir la IA, la gente a menudo se centra más en su poderosa capacidad. Sin embargo, un hecho que no se puede ignorar es que la IA tiene problemas de "alucinaciones" o sesgos. Lo que se llama "alucinaciones" de la IA, en términos simples, es que la IA a veces "inventa" información, explicando de manera aparentemente razonable fenómenos que en realidad no existen. Por ejemplo, cuando se le pregunta "¿por qué la luna es rosa?", una pregunta que no se ajusta a la realidad, la IA puede proporcionar una serie de explicaciones que parecen razonables pero que en realidad no tienen fundamento.
Las razones por las que la IA presenta "alucinaciones" o sesgos están estrechamente relacionadas con la trayectoria tecnológica actual de la IA. La IA generativa suele lograr salidas coherentes y razonables al predecir el contenido "más probable", pero este enfoque dificulta garantizar la veracidad de las salidas. Además, los datos de entrenamiento de la IA pueden contener errores, sesgos e incluso contenido ficticio, lo que afecta la calidad de la salida de la IA. Se puede decir que la IA está aprendiendo más los patrones lingüísticos humanos que los hechos en sí.
El actual mecanismo de generación de probabilidades y el modelo impulsado por datos casi inevitablemente conducen a que la IA produzca "ilusiones". Aunque en el ámbito del conocimiento general o el contenido de entretenimiento este problema puede no causar consecuencias graves temporalmente, en campos que requieren alta rigurosidad como la medicina, el derecho, la aviación y las finanzas, los sesgos y las ilusiones de la IA pueden dar lugar a problemas significativos. Por lo tanto, abordar los problemas de ilusiones y sesgos en la IA se ha convertido en un desafío central en el proceso de desarrollo de la IA.
El proyecto Mira es una solución propuesta para este problema. Intenta reducir los sesgos y alucinaciones de la IA y mejorar su fiabilidad mediante la construcción de una capa de confianza para la IA. La idea central de Mira es validar la salida de la IA mediante el consenso de múltiples modelos de IA.
En concreto, Mira es una red de validación que verifica la fiabilidad de las salidas de IA a través del consenso de múltiples modelos de IA. Más importante aún, Mira adopta un mecanismo de verificación de consenso descentralizado, que es una especialidad en el campo de las criptomonedas. A través de un modelo de validación colectiva, Mira puede reducir eficazmente los sesgos y las alucinaciones que podrían generar un único modelo.
En términos de arquitectura de validación, el protocolo Mira admite la conversión de contenido complejo en declaraciones verificables de forma independiente. Los operadores de nodos participan en el proceso de verificación de estas declaraciones, y para garantizar el comportamiento honesto de los operadores de nodos, Mira introduce incentivos y mecanismos de penalización en la economía criptográfica.
La arquitectura de red de Mira incluye tres partes principales: conversión de contenido, verificación distribuida y mecanismo de consenso. Primero, el sistema descompone el contenido candidato enviado por el cliente en diferentes declaraciones verificables, que luego se distribuyen a los nodos para su validación. Los nodos determinan la validez de las declaraciones y resumen los resultados para alcanzar un consenso. Finalmente, estos resultados y el consenso se devuelven al cliente. Para proteger la privacidad del cliente, el contenido candidato se convierte en pares de declaraciones y se distribuye a diferentes nodos de manera fragmentada y aleatoria, evitando la filtración de información durante el proceso de verificación.
Los operadores de nodos participan en el funcionamiento de la red ejecutando modelos de validación, procesando declaraciones y enviando resultados de validación. Sus ingresos provienen del valor creado para los clientes, es decir, reducir la tasa de error de la IA. En campos como la salud, el derecho, la aviación y las finanzas, reducir la tasa de error de la IA puede generar un valor enorme, por lo que los clientes están dispuestos a pagar por ello. Al mismo tiempo, para prevenir que los operadores de nodos se aprovechen de la situación, el sistema penaliza a los nodos que se desvíen continuamente del consenso, asegurando así la honestidad del proceso de validación.
En general, Mira ofrece una nueva solución para lograr la fiabilidad de la IA. Al construir una red de verificación de consenso descentralizada sobre múltiples modelos de IA, Mira tiene como objetivo proporcionar a los servicios de IA de los clientes una mayor fiabilidad, reducir los sesgos y alucinaciones de la IA, y satisfacer la demanda de los clientes por alta precisión y exactitud. Esta innovación tiene el potencial de impulsar el desarrollo profundo de las aplicaciones de IA y contribuir de manera significativa a la construcción de un ecosistema de IA confiable.
Actualmente, Mira ha establecido asociaciones con varios marcos de agentes de IA reconocidos. Con el lanzamiento de la red de pruebas pública de Mira, los usuarios pueden experimentar salidas de IA verificadas a través de Klok (una aplicación de chat LLM basada en Mira) y tener la oportunidad de ganar puntos Mira. Esto brinda a los usuarios una oportunidad intuitiva para comparar las diferencias en las salidas de IA antes y después de la verificación, lo que ayuda a comprender mejor el valor de la red Mira.