Entre 2020 et juin 2024, le Centre de Soutien aux Victimes de Crimes Numériques a reçu 938 651 demandes de suppression de contenus illégaux, tels que des deepfakes et des images sexuellement abusives. Cependant, environ 29% de ces demandes, soit un total de 270 000 cas, n’ont pas été traitées. Le manque de personnel pour répondre à ces demandes est un problème majeur, mais il y a également une demande croissante pour des régulations plus strictes obligeant les entreprises à se conformer aux demandes de suppression.
L’augmentation des deepfakes, alimentée par les avancées technologiques, a conduit à une hausse significative de ces crimes. Par exemple, des contenus créés par des fans de K-pop, comme des vidéos « fancam », ont été ciblés, ce qui a poussé des agences comme JYP Entertainment et YG Entertainment à engager des poursuites judiciaires en réponse à la victimisation de leurs artistes par des deepfakes.
Même des individus ordinaires sont victimes de ces pratiques, comme dans le cas d’une enseignante dont les photos ont été manipulées et diffusées dans des groupes de discussion en ligne. Malgré la gravité croissante de ces incidents, les mesures actuelles sont insuffisantes en raison du manque de pouvoir d’application. Les experts et les législateurs appellent à des régulations plus strictes, y compris des amendes et des suspensions de service pour les plateformes qui ne parviennent pas à supprimer les contenus illégaux.
Que pensez-vous de l’impact croissant des deepfakes et des mesures qui devraient être prises pour protéger les victimes ?