Les deepfakes, ces vidéos ou voix synthétiques générées par l’intelligence artificielle (IA), sont devenues un outil puissant pour la désinformation et pour le crime organisé. Les femmes en sont les premières victimes, notamment à travers une exploitation pornographique non consentie. Des solutions émergent dans le secteur de la tech afin de protéger les citoyens des arnaques et des attaques sophistiquées.
Un outil de plus en plus utilisé contre les femmes
Si les deepfakes sont souvent associés à des escroqueries financières ou à des manipulations politiques, leur usage le plus courant et le plus inquiétant vise directement les femmes. Une étude réalisée par la société de cybersécurité Deeptrace révèle que plus de 96 % des vidéos en deepfake sont de nature pornographique et mettent en scène, sans leur consentement, des femmes. Ces contenus cumulent plus de 134 millions de vues et ciblent principalement des célébrités, mais aussi des anonymes, victimes de montages les associant à des actes qu’elles n’ont jamais commis.
Le rapport de Deeptrace met également en lumière une explosion du nombre de ces vidéos : entre 2018 et 2019, leur quantité a augmenté de 100 %, passant de 7 964 à 14 678. Plusieurs plateformes en ligne, notamment des forums comme Reddit, 4chan et 8chan, hébergent des communautés de créateurs de ces contenus, facilitant leur diffusion massive. Face à ce phénomène, certaines entreprises ont pris des mesures, à l’image de Reddit, qui a interdit le sous-forum r/deepfake dédié à ce type de contenus.
Des deepfakes de plus en plus sophistiqués qui imitent la famille ou les collègues
L’exemple de Laurel, une californienne, illustre bien l’ampleur du problème. Un jour, elle reçoit un appel téléphonique où la voix semble être celle de sa mère, Debby Bodkin, qui lui explique qu’elle a eu un accident et qu’elle est à l’hôpital. Par réflexe, Laurel raccroche et appelle sa mère, qui s’avère être en réalité à son bureau, saine et sauve. Cette tentative d’arnaque visait sa grand-mère, Ruthy, âgée de 93 ans.
« Les tentatives sont quotidiennes », déclare Debby à l’AFP. « L’IA peut être très dangereuse. » En effet, le détournement de voix et d’images au service de malfaiteurs est désormais courant. Un incident marquant a eu lieu début février, lorsque la police de Hong Kong a révélé qu’un employé d’une multinationale avait transféré 25 millions de dollars américains à des escrocs après une visioconférence truquée avec des avatars IA de ses collègues, à l’apparence plus vraie que nature.
La technologie au service des escrocs
Les deepfakes, qui ont d’abord fait leur apparition sur les réseaux sociaux, ont été utilisés pour détourner des personnalités à des fins de désinformation, mais également pour faciliter des arnaques. Un rapport publié en février par la startup iBoom, spécialisée dans l’identification des fausses images, révèle qu’à peine 0,1 % des Américains et Britanniques testés sont capables de repérer correctement une vidéo ou une image truquée.
Vijay Balasubramaniyan, patron de Pindrop Security, spécialiste de l’authentification vocale, précise : « Avant, il fallait 20 heures (d’enregistrements) pour recréer votre voix. Aujourd’hui, c’est cinq secondes. »
Comment détecter les deepfakes : les solutions de l’industrie tech
Face à cette menace grandissante, plusieurs entreprises se battent pour offrir des outils capables de détecter en temps réel les fausses vidéos et voix générées par IA. Des prestataires comme Reality Defender ou Intel, avec son outil FakeCatcher, travaillent à la mise au point de solutions avancées. FakeCatcher, par exemple, se base sur les variations des vaisseaux sanguins du visage, pour différencier les vidéos authentiques des deepfakes.
Pindrop, pour sa part, décompose chaque seconde d’audio en 8 000 extraits et les compare aux caractéristiques d’une voix humaine. « C’est comme toute société de cybersécurité, il faut rester à la page », souligne Nicos Vekiarides, patron d’Attestiv, société spécialisée dans l’identification de contenus générés par IA. « Au début, on voyait des gens avec une main à six doigts, mais les progrès ont fait que c’est de plus en plus difficile de dire à l’œil nu. »
« Au terme de cette évolution, toutes les entreprises devront disposer d’outils d’identification des contenus générés par IA », prévient Vijay Balasubramaniyan. « Cela devient une menace globale de cybersécurité », ajoute Nicos Vekiarides, soulignant que n’importe quelle entreprise peut voir sa réputation ternie par un deepfake.
L’augmentation du télétravail et la généralisation des communications virtuelles augmentent encore les risques d’usurpation d’identité, ce qui rend ces outils essentiels dans les entreprises de tous secteurs, notamment la finance et les assurances.
Des solutions pour les particuliers aussi
Certaines entreprises cherchent également à offrir des solutions au grand public. Par exemple, le fabricant chinois Honor a présenté son smartphone Magic7, capable de repérer et de signaler, en temps réel, l’utilisation de l’IA lors des appels vidéo. De son côté, la startup britannique Surf Security a lancé en 2024 un navigateur internet, destiné pour l’instant aux entreprises, capable d’alerter l’utilisateur lorsqu’une vidéo ou une voix semble avoir été générée par IA. Attestiv affirme déjà avoir des milliers d’utilisateurs particuliers utilisant sa formule gratuite.
Pindrop, quant à lui, travaille avec des opérateurs téléphoniques et prévoit une annonce majeure d’ici six mois pour « protéger le consommateur final ».
« L’IA générative a brouillé la frontière entre l’humain et la machine »
Pour Siwei Lyu, professeur d’informatique à l’université de Buffalo (New York), « les deepfakes vont devenir comme les spams », autrefois un cauchemar des premiers internautes, mais désormais maîtrisés grâce à des logiciels efficaces. « L’IA générative a brouillé la frontière entre l’humain et la machine », affirme Vijay Balasubramaniyan. Selon lui, « les sociétés qui arriveront à rétablir cette séparation vont devenir énormes », et ce marché pourrait peser des milliards.
Le monde numérique semble se préparer à une nouvelle ère de cybersécurité, où la lutte contre les deepfakes deviendra aussi cruciale que la gestion des spams. Reste à savoir si les solutions actuelles seront suffisantes pour freiner l’essor des manipulations virtuelles, et si la frontière entre l’humain et la machine pourra un jour être clairement définie.
Lire aussi : Comment gérer Trump : la méthode de la présidente mexicaine Claudia Sheinbaum