Près de vingt jeunes filles en Espagne sont victimes d’un phénomène dangereux créé avec l’intelligence artificielle : la diffusion de fausses images où leur tête apparaît sur un corps nu qui n’est pas le leur. Cette affaire a suscité une forte polémique dans le pays.
“Nous avons reçu onze plaintes de victimes” mineures dans la commune d’Almendralejo (sud-ouest), a indiqué une porte-parole de la police à l’AFP. Dans la province de Badajoz, elles sont encore plus nombreuses à être victimes de “Deepfake porn”. Certains des auteurs présumés de ces images ont été identifiés. Ils “ont manipulé des photos de jeunes filles mineures” pour placer leurs visages sur les “corps (dénudés) d’autres personnes”, explique-t-elle.
Pédopornographie générée par l’IA
Ces fausses images sont générées avec une application d’intelligence artificielle (IA), selon une autre source policière. L’IA est maintenant capable de produire des photomontages très réalistes. Une enquête est ouverte pour délit présumé d’atteinte à la vie privée. Le parquet précise que le délit de pédopornographie pourrait aussi être retenu, étant donné jeune âge des victimes.
Selon les médias espagnols, le nombre de victimes pourrait être bien plus grand. Les jeunes filles seraient très nombreuses à avoir des photos manipulées. Miriam Al Adib, la mère d’une des victimes, a dénoncé une “ignominie” sur Instagram. “Quand je suis arrivée à la maison, l’une de mes filles, m’a dit avec un dégoût énorme “regarde ce qu’ils ont fait” (…) Ils ont pris une photo d’elle et l’ont montée comme si elle était nue (…) à l’aide d’intelligence artificielle”.
A lire aussi : Angélique Cauchy : “j’ai été violée près de 400 fois” dès 12 ans
Des images “deepfake” pour “Onlyfans”
La police lui avait indiqué que ces photos peuvent être mises en ligne sur la plateforme “Onlyfans” ou sur “des sites pornographiques”. Une autre mère a dit de son côté sur la télévision publique espagnole TVE que ces images avaient été utilisées comme moyen de chantage pour obtenir de l’argent de la part de sa fille.
L’IA inquiète car cette technologie peut être utilisée à des fins malveillantes comme dans le cas de l’hypertrucage (“deepfake”) pornographique. Selon une étude réalisée en 2019 par la société néerlandaise Sensity, spécialisée dans l’IA, 96% des fausses vidéos en ligne sont de la pornographie non consensuelle et représentent, pour la plupart, des femmes.