Desafíos de Seguridad de DeFAI en la Tendencia de Fusión de AI y Web3
Recientemente, la Semana de Blockchain de Estambul (IBW 2025) se centró en la tendencia de fusión entre la IA y Web3, convirtiéndose en una plataforma importante para la discusión sobre la seguridad en Web3 este año. Varios expertos de la industria llevaron a cabo un profundo debate en un foro de mesa redonda sobre el estado actual de la aplicación de la tecnología AI en DeFi y los desafíos de seguridad.
En discusión, "DeFAI" (finanzas de inteligencia artificial descentralizada) se ha convertido en el tema central. Los expertos señalan que, con el rápido desarrollo de los modelos de lenguaje grandes (LLM) y los agentes de IA, este nuevo paradigma financiero DeFAI se está formando gradualmente. Sin embargo, esta innovación también ha traído nuevas superficies de ataque y riesgos de seguridad.
Un experto participante comentó: "DeFAI tiene un amplio futuro, pero debemos reevaluar los mecanismos de confianza en los sistemas descentralizados. A diferencia de los contratos inteligentes basados en lógica fija, el proceso de decisión de los agentes de IA está influenciado por el contexto, el tiempo e incluso las interacciones históricas. Esta imprevisibilidad no solo agrava el riesgo, sino que también crea oportunidades para los atacantes."
Los agentes de IA son, en esencia, entidades inteligentes capaces de tomar decisiones y ejecutar acciones de forma autónoma basándose en la lógica de la IA, generalmente autorizadas para funcionar por usuarios, protocolos o DAOs. Entre ellos, los robots de trading de IA son los más representativos. Actualmente, la mayoría de los agentes de IA operan sobre una arquitectura Web2, dependiendo de servidores centralizados y API, lo que los hace vulnerables a amenazas como ataques de inyección, manipulación de modelos o alteración de datos. Una vez que son secuestrados, no solo pueden resultar en pérdidas financieras, sino que también pueden afectar la estabilidad de todo el protocolo.
En el foro también se discutió un escenario típico de ataque: cuando el agente de trading AI que opera un usuario de DeFi está monitoreando mensajes en redes sociales como señales de trading, un atacante publica alarmas falsas, como "cierto protocolo está bajo ataque", lo que puede inducir al agente a iniciar de inmediato una liquidación de emergencia. Esto no solo puede resultar en pérdidas de activos para el usuario, sino que también puede provocar volatilidad en el mercado, que a su vez el atacante puede aprovechar mediante el front running (Front Running).
Ante estos riesgos, los expertos presentes consideran que la seguridad de los agentes de IA no debe ser asumida por una sola parte, sino que es una responsabilidad compartida entre los usuarios, los desarrolladores y las entidades de seguridad de terceros.
Los usuarios deben tener claro el alcance de los permisos que posee el agente, otorgar permisos con precaución y prestar atención a la revisión de las operaciones de alto riesgo del agente de IA. Los desarrolladores deben implementar medidas de defensa desde la etapa de diseño, como el refuerzo de las indicaciones, el aislamiento en sandbox, la limitación de velocidad y la lógica de retroceso, entre otros mecanismos. Las empresas de seguridad de terceros deben proporcionar revisiones independientes del comportamiento del modelo del agente de IA, la infraestructura y la forma de integración en la cadena, y trabajar con desarrolladores y usuarios para identificar riesgos y proponer medidas de mitigación.
Un experto en seguridad advirtió: "Si seguimos tratando a los agentes de IA como una 'caja negra', los accidentes de seguridad en el mundo real son solo una cuestión de tiempo." Sugerió a los desarrolladores que están explorando la dirección de DeFAI: "Al igual que con los contratos inteligentes, la lógica de comportamiento de los agentes de IA también se implementa a través del código. Dado que es código, existe la posibilidad de ser atacado, por lo que se necesita realizar auditorías de seguridad profesionales y pruebas de penetración."
IBW, como uno de los eventos de blockchain más influyentes de Europa, ha atraído a más de 15,000 participantes en total, incluidos desarrolladores, empresas de proyectos, inversores y reguladores de todo el mundo. Este año, con el lanzamiento oficial de la concesión de licencias para proyectos de blockchain por parte de la Comisión de Mercados de Capitales de Turquía (CMB), la posición de IBW en la industria se ha fortalecido aún más.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Los desafíos de seguridad de DeFAI se convierten en un punto caliente de IBW. Los expertos advierten sobre los riesgos de los agentes de IA.
Desafíos de Seguridad de DeFAI en la Tendencia de Fusión de AI y Web3
Recientemente, la Semana de Blockchain de Estambul (IBW 2025) se centró en la tendencia de fusión entre la IA y Web3, convirtiéndose en una plataforma importante para la discusión sobre la seguridad en Web3 este año. Varios expertos de la industria llevaron a cabo un profundo debate en un foro de mesa redonda sobre el estado actual de la aplicación de la tecnología AI en DeFi y los desafíos de seguridad.
En discusión, "DeFAI" (finanzas de inteligencia artificial descentralizada) se ha convertido en el tema central. Los expertos señalan que, con el rápido desarrollo de los modelos de lenguaje grandes (LLM) y los agentes de IA, este nuevo paradigma financiero DeFAI se está formando gradualmente. Sin embargo, esta innovación también ha traído nuevas superficies de ataque y riesgos de seguridad.
Un experto participante comentó: "DeFAI tiene un amplio futuro, pero debemos reevaluar los mecanismos de confianza en los sistemas descentralizados. A diferencia de los contratos inteligentes basados en lógica fija, el proceso de decisión de los agentes de IA está influenciado por el contexto, el tiempo e incluso las interacciones históricas. Esta imprevisibilidad no solo agrava el riesgo, sino que también crea oportunidades para los atacantes."
Los agentes de IA son, en esencia, entidades inteligentes capaces de tomar decisiones y ejecutar acciones de forma autónoma basándose en la lógica de la IA, generalmente autorizadas para funcionar por usuarios, protocolos o DAOs. Entre ellos, los robots de trading de IA son los más representativos. Actualmente, la mayoría de los agentes de IA operan sobre una arquitectura Web2, dependiendo de servidores centralizados y API, lo que los hace vulnerables a amenazas como ataques de inyección, manipulación de modelos o alteración de datos. Una vez que son secuestrados, no solo pueden resultar en pérdidas financieras, sino que también pueden afectar la estabilidad de todo el protocolo.
En el foro también se discutió un escenario típico de ataque: cuando el agente de trading AI que opera un usuario de DeFi está monitoreando mensajes en redes sociales como señales de trading, un atacante publica alarmas falsas, como "cierto protocolo está bajo ataque", lo que puede inducir al agente a iniciar de inmediato una liquidación de emergencia. Esto no solo puede resultar en pérdidas de activos para el usuario, sino que también puede provocar volatilidad en el mercado, que a su vez el atacante puede aprovechar mediante el front running (Front Running).
Ante estos riesgos, los expertos presentes consideran que la seguridad de los agentes de IA no debe ser asumida por una sola parte, sino que es una responsabilidad compartida entre los usuarios, los desarrolladores y las entidades de seguridad de terceros.
Los usuarios deben tener claro el alcance de los permisos que posee el agente, otorgar permisos con precaución y prestar atención a la revisión de las operaciones de alto riesgo del agente de IA. Los desarrolladores deben implementar medidas de defensa desde la etapa de diseño, como el refuerzo de las indicaciones, el aislamiento en sandbox, la limitación de velocidad y la lógica de retroceso, entre otros mecanismos. Las empresas de seguridad de terceros deben proporcionar revisiones independientes del comportamiento del modelo del agente de IA, la infraestructura y la forma de integración en la cadena, y trabajar con desarrolladores y usuarios para identificar riesgos y proponer medidas de mitigación.
Un experto en seguridad advirtió: "Si seguimos tratando a los agentes de IA como una 'caja negra', los accidentes de seguridad en el mundo real son solo una cuestión de tiempo." Sugerió a los desarrolladores que están explorando la dirección de DeFAI: "Al igual que con los contratos inteligentes, la lógica de comportamiento de los agentes de IA también se implementa a través del código. Dado que es código, existe la posibilidad de ser atacado, por lo que se necesita realizar auditorías de seguridad profesionales y pruebas de penetración."
IBW, como uno de los eventos de blockchain más influyentes de Europa, ha atraído a más de 15,000 participantes en total, incluidos desarrolladores, empresas de proyectos, inversores y reguladores de todo el mundo. Este año, con el lanzamiento oficial de la concesión de licencias para proyectos de blockchain por parte de la Comisión de Mercados de Capitales de Turquía (CMB), la posición de IBW en la industria se ha fortalecido aún más.