Les défis de sécurité DeFAI deviennent un sujet brûlant à IBW, des experts avertissent des risques liés aux agents IA

robot
Création du résumé en cours

Défis de la Sécurité de l'IA dans la tendance de fusion entre l'IA et le Web3

Récemment, la Semaine de la blockchain d'Istanbul (IBW 2025) s'est concentrée sur la tendance à la fusion de l'IA et du Web3, devenant ainsi une plateforme importante pour les discussions sur la sécurité du Web3 cette année. Plusieurs experts du secteur ont discuté en profondeur des applications de la technologie de l'IA dans le DeFi et des défis de sécurité lors d'une table ronde.

IBW 2025 : Fusion de l'IA et du Web3, nouveaux défis de sécurité sous la montée du DeFAI

Dans les discussions, "DeFAI" (finance décentralisée de l'IA) est devenu un sujet central. Les experts soulignent qu'avec le développement rapide des modèles de langage de grande taille (LLM) et des agents IA, ce nouveau paradigme financier qu'est le DeFAI est en train de se former progressivement. Cependant, cette innovation a également introduit de nouvelles surfaces d'attaque et des risques de sécurité.

Un expert participant a déclaré : "L'avenir de DeFAI est prometteur, mais nous devons réexaminer les mécanismes de confiance dans les systèmes décentralisés. Contrairement aux contrats intelligents basés sur une logique fixe, le processus de décision des agents AI est influencé par le contexte, le temps et même les interactions historiques. Cette imprévisibilité aggrave non seulement les risques, mais crée également des opportunités pour les attaquants."

Les agents AI sont essentiellement des entités intelligentes capables de prendre des décisions et d'exécuter des actions de manière autonome sur la base de la logique AI, généralement autorisées à fonctionner par des utilisateurs, des protocoles ou des DAO. Parmi eux, les robots de trading AI sont les plus représentatifs. Actuellement, la plupart des agents AI fonctionnent sur une architecture Web2, s'appuyant sur des serveurs et des API centralisés, ce qui les rend vulnérables aux attaques par injection, à la manipulation des modèles ou à la falsification des données. Une fois détournés, cela peut non seulement entraîner des pertes financières, mais aussi affecter la stabilité de l'ensemble du protocole.

Un scénario d'attaque typique a également été discuté dans le forum : lorsque l'agent de trading AI d'un utilisateur DeFi surveille les messages sur les réseaux sociaux comme signaux de trading, un attaquant publie de fausses alertes, telles que "un protocole a subi une attaque", ce qui peut inciter cet agent à déclencher immédiatement une liquidation d'urgence. Cela peut non seulement entraîner des pertes d'actifs pour l'utilisateur, mais aussi provoquer des fluctuations du marché, que l'attaquant peut ensuite exploiter par le biais de l'arbitrage (Front Running).

Face à ces risques, les experts présents s'accordent à dire que la sécurité des agents d'IA ne devrait pas être de la seule responsabilité d'une partie, mais plutôt une responsabilité commune des utilisateurs, des développeurs et des organismes de sécurité tiers.

L'utilisateur doit être conscient de l'étendue des droits détenus par l'agent et accorder les permissions avec prudence, tout en faisant attention à examiner les opérations à haut risque de l'agent IA. Les développeurs doivent mettre en œuvre des mesures de défense dès la phase de conception, telles que le renforcement des invites, l'isolation en bac à sable, la limitation de la fréquence et des logiques de repli. Des entreprises de sécurité tierces doivent fournir un examen indépendant du comportement des modèles d'agents IA, de l'infrastructure et des méthodes d'intégration sur la chaîne, et collaborer avec les développeurs et les utilisateurs pour identifier les risques et proposer des mesures d'atténuation.

Un expert en sécurité a averti : "Si nous continuons à considérer les agents de l'IA comme une 'boîte noire', il n'est qu'une question de temps avant qu'un accident de sécurité ne se produise dans le monde réel." Il a conseillé aux développeurs explorant la direction du DeFAI : "Tout comme les contrats intelligents, la logique comportementale des agents de l'IA est également réalisée par du code. Puisque c'est du code, il y a un risque d'attaque, c'est pourquoi des audits de sécurité professionnels et des tests de pénétration sont nécessaires."

IBW, en tant qu'un des événements blockchain les plus influents en Europe, a attiré plus de 15 000 participants, comprenant des développeurs, des projets, des investisseurs et des régulateurs du monde entier. Cette année, avec le lancement officiel par la Commission des marchés de capitaux de Turquie (CMB) de la délivrance de licences pour des projets blockchain, la position d'IBW dans l'industrie a été encore renforcée.

IBW 2025 : Fusion de l'IA et du Web3, nouveaux défis de sécurité sous la montée de DeFAI

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)