Alors que la technologie deepfake devient de plus en plus sophistiquée, les escroqueries qu'elle permet le deviennent également.
Au cours des quatre premiers mois de 2025, 163 incidents liés aux deepfakes ont été signalés, entraînant des pertes de plus de 200 millions de dollars.
Mais les experts pensent que ce n'est qu'une fraction des véritables dégâts. Ken Jon Miyachi, fondateur de BitMind—une plateforme de détection de deepfake alimentée par l'IA décentralisée construite sur le réseau Bittensor—est en première ligne de cette menace croissante.
Dans cette interview avec Invezz, Miyachi discute de la course aux armements qui s'accélère entre les créateurs de deepfakes et les outils de détection, de la réponse réglementaire et de la manière dont BitMind se positionne pour protéger à la fois les entreprises et les utilisateurs quotidiens contre des attaques de plus en plus audacieuses.
Invezz : Le rapport sur les incidents de Deepfake du T1 2025 fait état de 163 incidents rien que dans les quatre premiers mois, avec plus de 200 millions de dollars perdus. De votre point de vue chez BitMind, est-ce juste la partie émergée de l'iceberg ?
Oui, ce n'est que la partie émergée de l'iceberg.
D'autres rapports ont cité plus de 580 incidents représentant près de 900 millions de dollars de pertes au cours du premier semestre 2025, et il semble y avoir une tendance statistique à la hausse alors que les escroqueries par deepfake deviennent de plus en plus sophistiquées.
Invezz : Comment BitMind suit-il le rythme des modèles d'IA générative en évolution rapide, et cela se transforme-t-il en un jeu du chat et de la souris perpétuel avec les créateurs de deepfake ?
BitMind s'appuie sur Bittensor, où un réseau mondial de développeurs d'IA rivalise pour affiner les modèles de détection en temps réel, mettant en commun des ressources et utilisant des incitations crypto-économiques pour améliorer dynamiquement les modèles et s'adapter aux dernières données produites par des modèles d'IA générative de pointe.
Oui, similaire à la cybersécurité, c'est un jeu perpétuel du chat et de la souris entre les détecteurs et les escrocs des deepfakes.
La façon de rester en tête réside dans la vélocité et la capacité à s'adapter rapidement, ainsi que dans le développement d'une solution généralisée capable de détecter des données que le modèle n'a pas encore vues.
Invezz : Quelle est la précision des outils de détection dans des contextes en temps réel comme les appels vidéo ? Et quelle protection existe - ou devrait exister - pour les utilisateurs ordinaires de plus en plus ciblés ?
Nos outils actuels ont été évalués à 88 % de précision sur les images et sont légèrement en retard sur les vidéos, où l'intervention en temps réel est cruciale.
Les protections existantes comprennent des extensions de navigateur et des outils web comme le détecteur d'IA BitMinds.
Il devrait y avoir davantage, comme une éducation obligatoire à la culture numérique et des systèmes de détection proactifs en temps réel de niveau consommateur.
Invezz : Les réglementations suivent-elles le rythme de la montée de la fraude alimentée par les deepfakes, en particulier dans le domaine financier ?
Dans l'ensemble, oui. Bien que les réglementations soient en retard, il existe une variété de législations étatiques qui sont introduites ciblant la fraude et les crimes liés aux deepfakes.
Dans le monde d'Internet et de l'IA, je pense qu'il sera important d'avoir une législation fédérale ou même mondiale liée aux deepfakes et à la fraude financière.
Invezz : Soutiendriez-vous des normes de filigrane ou de provenance obligatoires pour le contenu généré par l'IA ? Et comment BitMind se positionne-t-il dans cet environnement de menace en évolution ?
Oui, cela se produit déjà avec des entreprises comme Google et OpenAI utilisant le filigrane pour aider à identifier le contenu généré par l'IA.
Ces normes fonctionnent, cependant, l'entropie de l'internet est si vaste que je ne crois pas que cela puisse être la solution universelle au problème des deepfakes.
BitMind se positionne comme le principal service de détection de deepfake pour les consommateurs dans le monde, avec une précision « in-the-wild » de premier plan.
Notre feuille de route inclut l'expansion vers une solution mobile-native, ainsi que l'élargissement de l'échelle de nos services pour les intégrer dans des cas d'utilisation d'entreprise tels que des outils de communication d'entreprise et des services financiers.
L'article Interview : 'Ce n'est que la partie émergée de l'iceberg', déclare le fondateur de BitMind, Ken Jon Miyachi, sur les arnaques aux deepfakes est apparu en premier sur Invezz
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Interview : « Ce n'est que la partie émergée de l'iceberg », déclare Ken Jon Miyachi, fondateur de BitMind, sur les arnaques aux deepfakes.
Au cours des quatre premiers mois de 2025, 163 incidents liés aux deepfakes ont été signalés, entraînant des pertes de plus de 200 millions de dollars.
Mais les experts pensent que ce n'est qu'une fraction des véritables dégâts. Ken Jon Miyachi, fondateur de BitMind—une plateforme de détection de deepfake alimentée par l'IA décentralisée construite sur le réseau Bittensor—est en première ligne de cette menace croissante.
Dans cette interview avec Invezz, Miyachi discute de la course aux armements qui s'accélère entre les créateurs de deepfakes et les outils de détection, de la réponse réglementaire et de la manière dont BitMind se positionne pour protéger à la fois les entreprises et les utilisateurs quotidiens contre des attaques de plus en plus audacieuses.
Invezz : Le rapport sur les incidents de Deepfake du T1 2025 fait état de 163 incidents rien que dans les quatre premiers mois, avec plus de 200 millions de dollars perdus. De votre point de vue chez BitMind, est-ce juste la partie émergée de l'iceberg ?
Oui, ce n'est que la partie émergée de l'iceberg. D'autres rapports ont cité plus de 580 incidents représentant près de 900 millions de dollars de pertes au cours du premier semestre 2025, et il semble y avoir une tendance statistique à la hausse alors que les escroqueries par deepfake deviennent de plus en plus sophistiquées.
Invezz : Comment BitMind suit-il le rythme des modèles d'IA générative en évolution rapide, et cela se transforme-t-il en un jeu du chat et de la souris perpétuel avec les créateurs de deepfake ?
BitMind s'appuie sur Bittensor, où un réseau mondial de développeurs d'IA rivalise pour affiner les modèles de détection en temps réel, mettant en commun des ressources et utilisant des incitations crypto-économiques pour améliorer dynamiquement les modèles et s'adapter aux dernières données produites par des modèles d'IA générative de pointe.
Oui, similaire à la cybersécurité, c'est un jeu perpétuel du chat et de la souris entre les détecteurs et les escrocs des deepfakes.
La façon de rester en tête réside dans la vélocité et la capacité à s'adapter rapidement, ainsi que dans le développement d'une solution généralisée capable de détecter des données que le modèle n'a pas encore vues.
Invezz : Quelle est la précision des outils de détection dans des contextes en temps réel comme les appels vidéo ? Et quelle protection existe - ou devrait exister - pour les utilisateurs ordinaires de plus en plus ciblés ?
Nos outils actuels ont été évalués à 88 % de précision sur les images et sont légèrement en retard sur les vidéos, où l'intervention en temps réel est cruciale.
Les protections existantes comprennent des extensions de navigateur et des outils web comme le détecteur d'IA BitMinds.
Il devrait y avoir davantage, comme une éducation obligatoire à la culture numérique et des systèmes de détection proactifs en temps réel de niveau consommateur.
Invezz : Les réglementations suivent-elles le rythme de la montée de la fraude alimentée par les deepfakes, en particulier dans le domaine financier ?
Dans l'ensemble, oui. Bien que les réglementations soient en retard, il existe une variété de législations étatiques qui sont introduites ciblant la fraude et les crimes liés aux deepfakes.
Dans le monde d'Internet et de l'IA, je pense qu'il sera important d'avoir une législation fédérale ou même mondiale liée aux deepfakes et à la fraude financière.
Invezz : Soutiendriez-vous des normes de filigrane ou de provenance obligatoires pour le contenu généré par l'IA ? Et comment BitMind se positionne-t-il dans cet environnement de menace en évolution ?
Oui, cela se produit déjà avec des entreprises comme Google et OpenAI utilisant le filigrane pour aider à identifier le contenu généré par l'IA.
Ces normes fonctionnent, cependant, l'entropie de l'internet est si vaste que je ne crois pas que cela puisse être la solution universelle au problème des deepfakes.
BitMind se positionne comme le principal service de détection de deepfake pour les consommateurs dans le monde, avec une précision « in-the-wild » de premier plan.
Notre feuille de route inclut l'expansion vers une solution mobile-native, ainsi que l'élargissement de l'échelle de nos services pour les intégrer dans des cas d'utilisation d'entreprise tels que des outils de communication d'entreprise et des services financiers.
L'article Interview : 'Ce n'est que la partie émergée de l'iceberg', déclare le fondateur de BitMind, Ken Jon Miyachi, sur les arnaques aux deepfakes est apparu en premier sur Invezz