Le conseil de surveillance de Meta (groupe qui détient Facebook et Instagram) signale se saisir de deux affaires qui concernent les fausses images pornographiques de personnalités publiques féminines, deux mois après le scandale des “deepfakes” dont la chanteuse Taylor Swift en a été la victime.
“Deepfakes” ou “hypertrucages” à des fins de harcèlement
Deux cas ont été choisis pour illustrer le phénomène critique et “évaluer si les règlements de Meta et leur application sont efficaces pour traiter (le problème) des images à caractère sexuel générées par l’intelligence artificielle (IA)”, écrit dans un communiqué ce conseil surnommé “cour suprême”.
Mis en place par le géant des réseaux sociaux et composé de membres indépendants, le conseil est chargé de trancher des questions délicates afin de modérer les contenus des plateformes.
L’envolée de l’IA générative, qui automatise la production de contenus perfectionnés et réalistes, a donné un nouvel essor au phénomène des “deepfakes”, ou “hypertrucages”, notamment les images transformées et sexualisées qui mettent en scène des femmes, à des fins de harcèlement d’intimidation.
Une femme qui “ressemble à une personnalité publique américaine”
Le premier cas choisi par le conseil de surveillance de Meta concerne une image générée par l’IA d’une femme nue postée sur Instagram, “ressemblant à une personnalité publique indienne”, indique le communiqué.
Un utilisateur s’est plaint que l’entreprise californienne n’enlève pas l’image. “Meta a déterminé que sa décision de laisser le contenu affiché était erronée et a supprimé le message pour violation de ses règles sur l’intimidation et le harcèlement”, relève le conseil.
Le deuxième cas concerne une image postée sur un groupe Facebook de création de contenus avec l’IA, montrant “une femme nue avec un homme qui lui tripote les seins”. La femme “ressemble à une personnalité publique américaine”, aussi nommée dans la légende.
Une fausse image de Taylor Swift, vue 47 millions de fois
Le groupe Meta avait retiré l’image, et l’avait ajoutée à une banque de contenus qui fait partie de son système d’application des règles, pour trouver et supprimer automatiquement de ses plateformes les images déjà identifiées par des employés comme problématiques.
Dès le début de cette année, une fausse image pornographique de la chanteuse américaine Taylor Swift avait été vue 47 millions de fois sur X (ex-Twitter) avant d’être supprimée par le réseau social, une quinzaine d’heures après avoir été mise en ligne. L’affaire avait suscité l’indignation de ses fans, de nombreuses personnalités et même de la Maison Blanche. Pour répondre à cette problématique, le gouvernement américain pourrait envisager d’établir une loi pour mieux encadre le contenu créé par l’intelligence artificielle.
D’après une étude réalisée en 2019 par la société néerlandaise Sensity, spécialisée dans l’IA, 96% des fausses vidéos en ligne sont de la pornographie non consentie et la plupart d’entre elles représentent des femmes, célèbres ou pas. Parfois postées sur “Onlyfans” ou sur des sites pornographiques, toujours sans consentement, ces trucages représentent un réel danger, autant pour les adultes que les mineures qui, aussi, ne sont pas épargnées.
Lire aussi : “Deepfake porn”: une vingtaine de filles mineures victimes du phénomène en Espagne