Changpeng «CZ» Zhao, ancien PDG de Binance, a déclaré jeudi qu’il avait rencontré une vidéo générée par l’IA qui reproduisait sa voix si précisément qu’il ne pouvait pas le distinguer d’un véritable enregistrement.
Le message, partagé via X, présentait une voix off de Zhao parlant le mandarin, correspondant à ses mouvements faciaux avec une précision qu’il a décrite comme «effrayante».
La vidéo montre Zhao parlant en chinois sur une série de clips vidéo, de contenu généré par l’IA et des photos. Sa fidélité a renouvelé les préoccupations concernant l’utilisation non autorisée de l’IA pour usurper les personnalités publiques.
L’incident s’ajoute à un ensemble croissant de cas où les ressemblances numériques des cadres cryptographiques ont été clonées à l’aide d’outils génératifs, parfois à des fins frauduleuses.
Zhao, qui reste une figure de premier plan dans l’industrie de la cryptographie malgré la démission du PDG de Binance en 2023, a précédemment émis des avertissements sur les tentatives d’identité impliquant Deepfakes. En octobre 2024, il a conseillé aux utilisateurs de ne faire confiance à aucune séquence vidéo demandant des transferts de crypto, reconnaissant la circulation du contenu modifié portant sa ressemblance.
Deepfakes et crypto: augmentation du risque opérationnel
La dernière vidéo ajoute une nouvelle dimension aux tactiques d’identité qui se sont déplacées au-delà des images et du texte statiques. En 2023, l’agent des communications de Binance, Patrick Hillmann, a révélé que les escrocs ont utilisé une simulation vidéo de lui pour mener des réunions avec des représentants du projet via Zoom.
Les images synthétiques ont été assemblées en utilisant des années d’entrevues publiques et des apparitions en ligne, permettant aux acteurs de planifier des appels en direct avec des cibles sous la prétention de l’engagement d’échange officiel.
L’expérience de Zhao suggère que la réplication vocale a atteint un niveau de réalisme comparable, même à la personne imitée, augmentant les risques de fraude au-delà de l’identité des médias sociaux.
En février, le personnel du bureau de Hong Kong d’Arup a été trompé dans le transfert d’environ 25 millions de dollars lors d’une réunion des équipes de Microsoft, croyant qu’ils parlaient avec leur directeur financier basé au Royaume-Uni. Selon le South China Morning Post, chaque participant à l’appel était une simulation générée par l’IA.
Les capacités de clonage vocal nécessitent désormais une entrée minimale
Les outils qui dépendaient autrefois d’échantillons de voix étendus fonctionnent désormais avec seulement de brefs enregistrements. De nombreux systèmes au niveau des consommateurs, tels que Elevenlabs, nécessitent moins de 60 secondes d’audio pour générer un clone convaincant. L’institution financière a rapporté en janvier que plus d’un quart des adultes britanniques estiment avoir rencontré des escroqueries impliquant des voix clonées dans les 12 mois précédents.
Ces outils sont de plus en plus disponibles à faible coût. Selon les briefings de renseignement de la menace de Cyflare, l’accès clé en main aux API de clonage vocal peut être acheté pour aussi peu que 5 $ sur les marchés DarkNet. Alors que les modèles commerciaux offrent un filigrane et des exigences d’opt-in, les alternatives open-source et du marché noir respectent rarement de telles normes.
La loi sur l’intelligence artificielle de l’Union européenne, officiellement adoptée en mars 2024, comprend des mandats que le contenu DeepFake doit être clairement étiqueté lorsqu’il est déployé dans des milieux publics. Cependant, la fenêtre d’application de la loi reste éloignée, la pleine conformité n’étant pas attendue avant 2026.
Sans barrières réglementaires actives, les fabricants de matériel commencent à intégrer les capacités de détection directement dans les appareils de consommation.
Le Mobile World Congress 2025 à Barcelone a présenté plusieurs démonstrations d’outils conçus pour détecter la manipulation audio ou visuelle en temps réel. Bien qu’ils ne soient pas encore disponibles dans le commerce, ces implémentations visent à réduire la dépendance des utilisateurs à l’égard des services de vérification externe.
Mentionné dans cet article
Dernier Alpha Rapport sur le marché
Résumé: Changpeng Zhao met en garde contre les risques croissants liés aux deepfakes et à la fraude, alors que la technologie de clonage vocal devient de plus en plus accessible et réaliste, posant des défis majeurs pour la sécurité des utilisateurs de crypto-monnaies.