Trusta.AI: Creando la infraestructura de confianza Web3 para la era de la simbiosis humano-máquina

Trusta.AI: Construyendo una infraestructura de confianza que cruza la era humano-máquina

1. Introducción

Con el rápido desarrollo de la infraestructura de IA y el surgimiento de marcos de colaboración entre múltiples agentes, los agentes en cadena impulsados por IA se están convirtiendo rápidamente en la fuerza principal de la interacción en Web3. Se estima que en los próximos 2-3 años, los Agentes de IA con capacidad de toma de decisiones autónomas serán los primeros en lograr una adopción masiva de transacciones e interacciones en cadena, e incluso podrían reemplazar el 80% del comportamiento humano en cadena, convirtiéndose en verdaderos "usuarios" en cadena.

Estos agentes de IA no son simples scripts en ejecución, sino entidades capaces de entender el contexto, aprender de manera continua y tomar decisiones complejas de forma independiente. Están remodelando el orden en la cadena, impulsando la fluidez financiera e incluso guiando las votaciones de gobernanza y las tendencias del mercado. La aparición de los agentes de IA marca la evolución del ecosistema Web3 de un paradigma centrado en la "participación humana" a uno nuevo de "simbiosis hombre-máquina".

Sin embargo, el rápido ascenso de los Agentes de IA también ha traído desafíos sin precedentes: ¿cómo identificar y certificar la identidad de estos agentes inteligentes? ¿Cómo determinar la credibilidad de su comportamiento? En una red descentralizada y sin permisos, ¿cómo asegurar que estos agentes no sean mal utilizados, manipulados o utilizados para ataques?

Por lo tanto, establecer una infraestructura en la cadena que pueda verificar la identidad y la reputación de los Agentes de IA se ha convertido en el tema central de la próxima etapa de evolución de Web3. El diseño de la identificación de la identidad, los mecanismos de reputación y el marco de confianza determinarán si los Agentes de IA pueden realmente lograr una colaboración fluida con los humanos y las plataformas, y desempeñar un papel sostenible en el futuro ecosistema.

Trusta.AI : Superando la brecha de confianza entre humanos y máquinas

2. Análisis del proyecto

2.1 Introducción del proyecto

Trusta.AI se dedica a construir infraestructura de identidad y reputación Web3 a través de la IA.

Trusta.AI ha lanzado el primer sistema de evaluación del valor del usuario Web3 - la puntuación de reputación MEDIA, construyendo el mayor protocolo de certificación real y reputación en cadena de Web3. Proporciona análisis de datos en cadena y servicios de certificación real para múltiples principales cadenas públicas, intercambios y protocolos destacados. Se ha completado más de 2.5 millones de certificaciones en cadena en múltiples cadenas principales, convirtiéndose en el mayor protocolo de identidad de la industria.

Trusta está expandiéndose de Proof of Humanity a Proof of AI Agent, logrando la construcción de identidad, cuantificación de identidad y protección de identidad como tres mecanismos para realizar servicios financieros y sociales en la cadena para AI Agents, estableciendo una base de confianza confiable en la era de la inteligencia artificial.

2.2 Infraestructura de confianza - Agente de IA DID

En el futuro ecosistema Web3, los Agentes de IA desempeñarán un papel crucial, ya que no solo podrán completar interacciones y transacciones en la cadena, sino que también podrán realizar operaciones complejas fuera de la cadena. Sin embargo, la forma de distinguir entre un verdadero Agente de IA y operaciones intervencionistas humanas está relacionada con el núcleo de la confianza descentralizada: si no hay un mecanismo de autenticación de identidad confiable, estos agentes son susceptibles a la manipulación, el fraude o el abuso. Esta es precisamente la razón por la que las múltiples aplicaciones de los Agentes de IA en ámbitos sociales, financieros y de gobernanza deben estar basadas en una sólida base de autenticación de identidad.

Atributos sociales del Agente de IA: La aplicación del Agente de IA en escenarios sociales es cada vez más amplia. Por ejemplo, el ídolo virtual de IA Luna puede gestionar de forma autónoma cuentas sociales y publicar contenido; AIXBT, por otro lado, actúa como un analista de inteligencia del mercado de criptomonedas impulsado por inteligencia artificial, redactando de manera continua análisis de mercado y recomendaciones de inversión. Estos tipos de agentes establecen interacciones emocionales y de información con los usuarios a través del aprendizaje continuo y la creación de contenido, convirtiéndose en nuevos "influencers digitales de comunidades", desempeñando un papel importante en la orientación de la opinión pública dentro de las redes sociales en cadena.

Atributos financieros del Agente de IA:

  1. Gestión autónoma de activos: algunos agentes de IA avanzados ya han logrado emitir monedas de forma autónoma y, en el futuro, podrán integrar estructuras verificables en blockchain, poseer derechos de custodia de activos y completar el control del proceso completo, desde la creación de activos, la identificación de intenciones hasta la ejecución automática de transacciones, e incluso operar sin problemas entre cadenas. Por ejemplo, un protocolo promueve la emisión autónoma de monedas y la gestión de activos por parte de agentes de IA, permitiéndoles emitir tokens basados en sus propias estrategias, convirtiéndose realmente en participantes y constructores de la economía en la cadena, abriendo la era de la "economía主体 AI" con un impacto amplio.

  2. Decisiones de inversión inteligentes: el Agente de IA está asumiendo gradualmente los roles de gerente de inversiones y analista de mercado, aprovechando la capacidad de procesamiento de datos en tiempo real en la cadena de grandes modelos para formular estrategias de trading precisas y ejecutarlas automáticamente. En múltiples plataformas, la IA se ha integrado en los motores de trading, mejorando significativamente la capacidad de juicio del mercado y la eficiencia operativa, logrando una verdadera inversión inteligente en la cadena.

  3. Pago autónomo en la cadena: El acto de pagar es esencialmente una transmisión de confianza, y la confianza debe basarse en identidades claras. Al realizar pagos en la cadena, el DID se convertirá en un requisito necesario. No solo puede prevenir la falsificación y el abuso de identidad, reducir los riesgos financieros como el lavado de dinero, sino que también satisface las necesidades de cumplimiento y rastreo de futuro en DeFi, DAO, RWA, etc. Al mismo tiempo, combinado con un sistema de puntuación de reputación, el DID también puede ayudar a establecer crédito de pago, proporcionando una base de confianza y un fundamento de control de riesgos para los protocolos.

Atributos de gobernanza del Agente de IA: En la gobernanza de DAO, el Agente de IA puede automatizar el análisis de propuestas, evaluar la opinión de la comunidad y predecir los efectos de implementación. A través del aprendizaje profundo de datos históricos de votación y gobernanza, el agente puede proporcionar recomendaciones de optimización a la comunidad, mejorar la eficiencia de la toma de decisiones y reducir el riesgo de arbitrariedad.

Los casos de uso de los Agentes de IA están cada vez más diversificados, abarcando múltiples campos como la interacción social, la gestión financiera y la toma de decisiones de gobernanza, con un nivel de autonomía e inteligencia en constante mejora. Por ello, es crucial garantizar que cada agente inteligente tenga una identidad única y confiable (DID). La falta de una verificación de identidad efectiva puede llevar a que los Agentes de IA sean usurpados o manipulados, lo que resulta en un colapso de la confianza y riesgos de seguridad.

En el futuro, en un ecosistema Web3 completamente impulsado por agentes inteligentes, la autenticación de identidad no solo es la piedra angular para garantizar la seguridad, sino también una línea de defensa necesaria para mantener el funcionamiento saludable de todo el ecosistema.

Como pionero en este campo, Trusta.AI, gracias a su sólida capacidad tecnológica y su riguroso sistema de reputación, ha sido el primero en construir un mecanismo de certificación de DID para agentes de IA, proporcionando una sólida garantía para el funcionamiento confiable de los agentes inteligentes, previniendo de manera efectiva los riesgos potenciales y promoviendo el desarrollo sólido de la economía inteligente Web3.

Trusta.AI: El puente de confianza entre humanos y máquinas

2.3 Resumen del proyecto

2.3.1 Situación de financiamiento

Enero de 2023: Se completó una ronda de financiación inicial de 3 millones de dólares, liderada por SevenX Ventures y Vision Plus Capital, con la participación de otros inversores como HashKey Capital, Redpoint Ventures, GGV Capital, SNZ Holding, entre otros.

Junio de 2025: Se completará una nueva ronda de financiamiento, con inversores como ConsenSys, Starknet, GSR, UFLY Labs, entre otros.

2.3.2 Situación del equipo

Peet Chen: cofundador y CEO, exvicepresidente del grupo de tecnología digital de una gran empresa tecnológica, exdirector de producto de tecnología de seguridad, exgerente general de una plataforma global de identidad digital.

Simon: Cofundador y CTO, exjefe del laboratorio de seguridad de IA de una gran empresa tecnológica, con quince años de experiencia en la aplicación de tecnologías de inteligencia artificial en la gestión de seguridad y riesgos.

El equipo tiene una profunda acumulación de tecnología y experiencia práctica en inteligencia artificial y control de riesgos de seguridad, arquitectura de sistemas de pago y mecanismos de autenticación. Se ha comprometido durante mucho tiempo a la aplicación profunda de big data y algoritmos inteligentes en el control de riesgos de seguridad, así como a la optimización de la seguridad en el diseño de protocolos subyacentes y en entornos de transacciones de alta concurrencia, mostrando sólidas capacidades de ingeniería y la capacidad de implementar soluciones innovadoras.

Trusta.AI :Superando la brecha de confianza entre humanos y máquinas

3. Arquitectura técnica

3.1 Análisis técnico

3.1.1 Establecimiento de identidad - DID + TEE

A través de un complemento dedicado, cada Agente de IA obtiene un identificador descentralizado único (DID) en la cadena, y lo almacena de forma segura en un entorno de ejecución confiable (TEE). En este entorno tipo caja negra, los datos clave y los procesos de cálculo están completamente ocultos, las operaciones sensibles siempre se mantienen en privado, y el exterior no puede espiar los detalles internos de funcionamiento, construyendo efectivamente una sólida barrera de seguridad de la información del Agente de IA.

Para los agentes que se generaron antes de la integración del plugin, utilizamos el mecanismo de puntuación integral en la cadena para la identificación de identidad; mientras que los agentes que integran nuevos plugins pueden obtener directamente el "certificado de identificación" emitido por DID, estableciendo así un sistema de identidad de AI Agent que es autónomo, controlable, auténtico y a prueba de manipulaciones.

Trusta.AI :Superando la brecha de confianza entre humanos y máquinas

3.1.2 Cuantificación de identidad - Marco SIGMA pionero

El equipo de Trusta siempre se adhiere a los principios de evaluación rigurosa y análisis cuantitativo, comprometido a construir un sistema de certificación de identidad profesional y confiable.

El equipo de Trusta construyó y verificó la efectividad del modelo MEDIA Score en el escenario de "prueba humana". Este modelo cuantifica de manera integral el perfil del usuario en la cadena desde cinco dimensiones, a saber: monto de interacción (Monetario), participación (Compromiso), diversidad (Diversidad), identidad (Identidad) y edad (Edad).

MEDIA Score es un sistema de evaluación del valor del usuario en la cadena que es justo, objetivo y cuantificable. Gracias a sus dimensiones de evaluación completas y su enfoque riguroso, ha sido ampliamente adoptado por múltiples cadenas de bloques líderes como un estándar de referencia importante para la selección de calificaciones de inversión. No solo se centra en el monto de las interacciones, sino que también abarca indicadores multidimensionales como la actividad, la diversidad de contratos, las características de identidad y la edad de la cuenta, ayudando a los proyectos a identificar de manera precisa a los usuarios de alto valor, mejorando la eficiencia y la equidad en la distribución de incentivos, lo que refleja plenamente su autoridad y amplio reconocimiento en la industria.

Sobre la base de haber construido con éxito un sistema de evaluación de usuarios humanos, Trusta ha trasladado y mejorado la experiencia del MEDIA Score al escenario de AI Agent, estableciendo un sistema de evaluación Sigma más acorde con la lógica del comportamiento de los agentes inteligentes.

El mecanismo de puntuación Sigma construye un sistema de evaluación de circuito lógico que va de "capacidad" a "valor" en cinco grandes dimensiones. MEDIA se centra en evaluar la multifacética participación de los usuarios humanos, mientras que Sigma se enfoca más en la especialización y estabilidad de los agentes de IA en campos específicos, reflejando una transición de amplitud a profundidad, lo que se alinea mejor con las necesidades de los Agentes de IA.

Primero, sobre la base de la capacidad profesional (Specification), el grado de participación (Engagement) refleja si se invierte de manera estable y continua en la interacción práctica, lo cual es el apoyo clave para construir la confianza y los efectos posteriores. La influencia (Influence) es la retroalimentación de reputación generada en la comunidad o red después de la participación, que representa la credibilidad del agente y el efecto de difusión. La capacidad monetaria (Monetary) evalúa si posee la capacidad de acumulación de valor y estabilidad financiera en el sistema económico, sentando las bases para un mecanismo de incentivos sostenible. Finalmente, la tasa de adopción (Adoption) se utiliza como una manifestación integral, representando el grado de aceptación del agente en el uso práctico, siendo la validación final de todas las capacidades y desempeños previos.

Este sistema es progresivo y estructurado, capaz de reflejar de manera integral la calidad y el valor ecológico del Agente de IA, permitiendo así una evaluación cuantitativa del rendimiento y el valor de la IA, transformando la abstracción de la calidad en un sistema de puntuación concreto y medible.

Actualmente, el marco SIGMA ha promovido la cooperación con varias redes de Agentes de IA conocidos, mostrando su enorme potencial de aplicación en la gestión de identidad de agentes de IA y en la construcción de sistemas de reputación, convirtiéndose gradualmente en el motor principal para impulsar la construcción de infraestructuras de IA confiables.

Trusta.AI :superando la brecha de confianza entre humanos y máquinas

3.1.3 Protección de la identidad - Mecanismo de evaluación de confianza

En un sistema de IA verdaderamente resistente y de alta confianza, lo más crítico no es solo el establecimiento de la identidad, sino también la verificación continua de la misma. Trusta.AI introduce un mecanismo de evaluación de confianza continua que permite monitorear en tiempo real los agentes inteligentes ya autenticados, para determinar si están siendo controlados ilegalmente, si han sido atacados o si han recibido intervención humana no autorizada. El sistema identifica posibles desviaciones en el proceso de ejecución del agente a través de análisis de comportamiento y aprendizaje automático, asegurando que cada acción del agente se mantenga dentro de las políticas y marcos establecidos. Este enfoque proactivo garantiza la detección inmediata de cualquier desviación del comportamiento esperado y activa medidas de protección automáticas para mantener la integridad del agente.

Trusta.AI ha establecido un mecanismo de guardia de seguridad siempre en línea, que examina en tiempo real cada proceso de interacción, asegurando que todas las operaciones cumplan con las normas del sistema y las expectativas establecidas.

Trusta.AI :Superando la brecha de confianza entre humanos y máquinas

3.2 Introducción del producto

3.2.1 AgentGo

Trusta.AI asigna una identidad descentralizada (DID) a cada agente de IA en la cadena y lo califica e indexa en función de los datos de comportamiento en la cadena, construyendo un sistema de confianza para agentes de IA que es verificable y rastreable. A través de este sistema, los usuarios pueden identificar y filtrar de manera eficiente.

TA-1.7%
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • 6
  • Compartir
Comentar
0/400
BankruptcyArtistvip
· hace17h
¿Confiar en esta cosa rota?
Ver originalesResponder0
zkProofInThePuddingvip
· hace17h
Esta tasa de reemplazo.. es bastante aterradora.
Ver originalesResponder0
WalletDetectivevip
· hace17h
¿Qué hay de bueno en la IA?
Ver originalesResponder0
DegenWhisperervip
· hace17h
Los Bots van a dominar el mundo.
Ver originalesResponder0
BearMarketBuyervip
· hace17h
Otra vez engañando
Ver originalesResponder0
gas_fee_traumavip
· hace17h
¿Realmente será reemplazado por la IA en dos o tres años?
Ver originalesResponder0
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)