Utiliser la puissance de la technologie pour lutter contre la traite des êtres humains en ligne

Cet article a été co-écrit par Mellissa Withers et Kim Berg.

Avec la numérisation de l’industrie de la traite, les obstacles aux efforts d’enquête deviennent encore plus sévères. Une communication facile, des outils de retouche photo, des téléphones « brûleur » jetables, des mots de code, de l’argot et du contenu réutilisé rendent difficile pour les forces de l’ordre de faire le lien. Heureusement, il existe maintenant des technologies numériques qui peuvent aider à lutter contre la traite à grande échelle. De nombreux outils d’intelligence artificielle (IA), d’apprentissage automatique (ML), d’imagerie générée par ordinateur (CGI) et d’analyse de mégadonnées ont été développés ou sont déjà utilisés dans l’espace de lutte contre la traite, apportant des renforts indispensables dans la lutte contre le trafic en ligne. la traite, les abus et l’exploitation.

Aide de la déesse grecque de la chasse

Dans la mythologie grecque, Artémis est la déesse de la chasse, et la chasse aux cas de « grooming » en ligne est ce pour quoi le logiciel de chat anti-grooming de Microsoft, nommé « Project Artemis », a été conçu pour faire. Construit en 2018 en collaboration avec The Meet Group, Roblox, Kik et Thorn, Project Artemis évalue et « note » les caractéristiques des conversations pour attribuer une cote de probabilité pour un éventuel toilettage, qui est ensuite signalé et envoyé à des modérateurs humains pour examen. Il reconnaît des mots et des schémas vocaux spécifiques à l’aide du traitement du langage naturel (NLP), offrant une approche plus précise pour évaluer les conversations nuancées sur les plateformes de discussion. Cet outil est un pas en avant important pour empêcher les conversations de toilettage de s’intensifier sur les plateformes de jeu et de discussion et pourrait être efficacement exploité sur les points d’accès.

Utilisation des « empreintes digitales » numériques pour détecter CSAM

Au cours des 15 dernières années, le CSAM signalé a augmenté de 15 000 %. Dans le passé, les entreprises technologiques s’appuyaient exclusivement sur des modérateurs de contenu humain pour regarder et évaluer le matériel signalé afin de détecter les contenus pédopornographiques (CSAM). Les modérateurs regardent souvent de nombreuses heures de vidéos et de photos sexuellement explicites et abusives, faisant des appels difficiles sur l’âge des personnes impliquées et si les comportements représentés sont réels ou faux. Cependant, on estime que Mindgeek (la société derrière Pornhub) n’emploie que 80 modérateurs dans le monde pour 1,36 million d’heures de contenu téléchargé sur le site chaque année. Afin de rendre la modération de contenu plus efficace et efficiente, PhotoDNA et Safer sont deux technologies avec la technologie de « hachage » et de « correspondance » visant à supprimer CSAM d’Internet.

PhotoDNA a été développé par Microsoft en 2009 et est utilisé par des géants de la technologie tels que Bing, Gmail, Twitter, Facebook et Reddit ainsi que par les forces de l’ordre. Il fonctionne en prenant une image ou une vidéo CSAM et en créant une « empreinte digitale » numérique en la compressant et en la divisant en parties, la transformant finalement en un code numérique unique. Cette empreinte digitale, appelée « signature » ou « hachage », peut être comparée à une base de données de CSAM connus mis en ligne. Cela réduit considérablement le temps nécessaire aux forces de l’ordre ou aux modérateurs de contenu pour examiner le contenu, car les doublons peuvent être supprimés automatiquement, même s’ils ont été modifiés, redimensionnés, modifiés ou rechargés.

De plus, Safer est un logiciel de modération CSAM lancé par Thorn en 2019. Le logiciel est utilisé par des sociétés telles que Imgur, Flickr, GoDaddy et Vimeo et a déjà supprimé 183 000 images d’abus d’Internet. Safer utilise un processus similaire de « hachage » et de « mise en correspondance » comme PhotoDNA.

Le problème inné de l’approche actuelle de PhotoDNA et de Safer est qu’une image ou une vidéo de CSAM doit d’abord être détectée pour pouvoir être exécutée dans le logiciel, ce qui signifie que quelqu’un doit la signaler ou qu’un modérateur doit la trouver avant de pouvoir commencer à être supprimée. . L’ajout de « classificateurs » CSAM de machine learning signifiera que ces outils, à eux seuls, seront capables de détecter de nouvelles images et vidéos inconnues des modérateurs.

Faire la lumière sur la traite

Spotlight est le principal outil d’identification des victimes dans le domaine de la lutte contre la traite et utilisé par plus de 10 000 enquêteurs. Il a permis de résoudre 62 000 cas de traite d’êtres humains, d’identifier plus de 16 000 trafiquants, de réduire le temps d’enquête de 67 % et d’identifier en moyenne 10 jeunes victimes par jour. Spotlight utilise l’analyse des mégadonnées pour connecter des ensembles de données accessibles au public du marché du sexe commercial en ligne afin d’exécuter des algorithmes d’apprentissage automatique sur les pistes des forces de l’ordre afin d’identifier et de trouver les victimes de la traite. Avec les 150 000 annonces d’escortes publiées quotidiennement en ligne, Spotlight augmente l’efficacité et l’efficience des enquêtes sur le trafic sexuel.

Réprimer les routes de transit

Traffik Analysis Hub est le premier hub mondial de données à travers les secteurs et les gouvernements créé par IBM et Stop the Traffik. Cette base de données collaborative est née de l’idée que « si vous pouvez suivre l’argent, vous pouvez suivre les personnes ». L’objectif est d’identifier les points chauds mondiaux du trafic afin de comprendre les itinéraires, les points de transit, les types de trafic et leur évolution au fil du temps. Le Traffik Analysis Hub compte actuellement plus de 250 analystes enregistrés d’organisations telles que Western Union, Barclays, International Center for Missing and Exploited Children, Standard Chartered, Mekong Club, Rotary, Salvation Army, Europol et autres. Ces partenariats ont conduit à plus de 890 000 incidents criminels signalés depuis le lancement et démontrent un énorme pas en avant pour les partenariats public/privé dans le domaine de la lutte contre la traite, l’exploitation et les abus.

« Chérie » est une mauvaise nouvelle pour les délinquants

« Sweetie » est un enfant philippin virtuel de 10 ans généré par ordinateur (CGI) dirigé par Terre des Hommes, une ONG internationale de 10 organisations nationales, pour lutter contre le tourisme sexuel impliquant des enfants par webcam en engageant des conversations par chat avec les auteurs dans des forums de discussion. Sweetie est capable de reproduire les mouvements, les expressions faciales et les tonalités vocales d’un vrai enfant et de répondre en direct aux discussions et aux messages dans les salles de discussion. Bien que Sweetie 1.0 ait dû être contrôlé manuellement par les forces de l’ordre, Sweetie 2.0 a utilisé une fonction de chat automatisée pour suivre les réponses, identifier les contrevenants et dissuader les contrevenants avec des avertissements sur les conséquences juridiques de s’engager avec de vrais enfants. Sweetie 2.0 a aidé à exposer 20 000 personnes essayant de discuter avec elle en ligne, dont 1 000 adultes de 71 pays qui essayaient de la payer pour du sexe par webcam. Sweetie 3.0 sera en mesure de suivre les suspects sur les plateformes en ligne et les sites de médias sociaux en dehors de la salle de discussion afin de localiser les endroits où les enfants sont exploités. De plus, l’introduction de l’intelligence artificielle avancée, de l’apprentissage en profondeur et de l’apprentissage automatique offre encore plus de possibilités de prévention.

Un facteur important à prendre en compte est que toutes ces technologies sont axées sur les étapes « Grooming », « Intervention » ou « Reporting » de la protection contre la traite et l’exploitation. Ils se concentrent en grande partie sur la suppression du CSAM après sa publication, la poursuite des contrevenants ou la recherche de victimes actuelles. Aucun d’entre eux ne se concentre actuellement sur l’étape de « pré-toilettage ». Cela signifie que même si ces technologies sont extrêmement utiles pour atténuer le trafic, elles ne empêcher la traite, l’exploitation et les abus. Espérons que les technologies futures pourront aller plus loin et contribuer aux activités de prévention.

Bien que cela semble être une bataille sans fin avec des trafiquants et des agresseurs s’adaptant constamment et dépassant les forces de l’ordre et les ONG, ces outils ont aidé des milliers de victimes au cours des 10 dernières années. Ce succès souligne le besoin de technologies avancées telles que l’IA, le ML, le CGI et l’analyse des mégadonnées, combinées au partenariat d’organisations publiques et privées pour opérer le changement. Les sociétés de médias sociaux comme Facebook, Twitter, Instagram, Reddit, Discord et Snapchat doivent unir leurs forces à celles des organisations de lutte contre la traite et assumer la responsabilité de l’étendue du toilettage, de la publicité et du CSAM présents sur leurs plateformes. Le groupe de travail technologique de Thorn, composé de 25 géants de la technologie en rotation tels que Google, Facebook, Microsoft et Amazon, est un excellent exemple du leadership nécessaire pour combler le fossé entre la responsabilité privée et publique. Ensemble nous pouvez lutter contre le trafic, l’exploitation et les abus sexuels d’enfants dans le monde.

Mellissa Withers est professeure agrégée de santé mondiale au programme de maîtrise en ligne en santé publique de l’Université de Californie du Sud. Kim Berg est étudiante à l’USC dans le cadre du World Bachelor of Business Program.