Il y a quelques semaines, Elon Musk, PDG de Twitter, a demand ses employs restants de faire preuve de loyaut en les incitant cliquer sur un lien “oui” dans un courriel. En cliquant sur “oui”, les employs disaient Musk qu’ils taient d’accord pour travailler plus longtemps, s’ils pouvaient garder leur emploi. C’tait la faon dont Musk voyait qui, dans son quipe existante, tait vraiment prt s’aligner sur ses efforts “hardcore” pour construire Twitter 2.0. Musk a rapidement compris quel point son offre tait peu attrayante lorsqu’un nombre crasant d’employs n’ont pas cliqu sur le bouton “oui”. Parmi ceux qui ont rejet les conditions svres de Musk, il y avait apparemment prs de la moiti de l’quipe mondiale de Twitter ddie la prvention de l’exploitation sexuelle des enfants sur la plateforme.

Il ne reste plus qu’un seul employ de Twitter au sein d’une quipe charge de supprimer les documents relatifs aux abus sexuels sur les enfants au Japon et dans la rgion Asie-Pacifique, a rapport Wired. Twitter employait auparavant au moins quatre employs chargs de la scurit des enfants dans ces rgions, a dcouvert Wired sur LinkedIn. Ces employs taient bass Singapour, le sige asiatique de Twitter, mais trois d’entre eux ont publiquement quitt Twitter en novembre. Des sources ont dclar que cela ne laissait qu’un seul employ temps plein en Asie-Pacifique pour s’attaquer au problme massif du CSAM (child sex abuse material : exploitation sexuelle des enfants) sur Twitter. La rgion Asie-Pacifique abrite 60 % de la population mondiale, soit environ 4,3 milliards de personnes. Le Japon n’arrive qu’en deuxime position derrire les tats-Unis pour le nombre d’utilisateurs de Twitter, avec 59 millions, selon les donnes de Statista.

Paralllement, trois personnes connaissant bien les effectifs actuels de Twitter ont dclar Bloomberg que lorsque 2022 a commenc, Twitter comptait 20 membres de l’quipe chargs d’examiner et de transmettre l’chelon suprieur les rapports sur les documents relatifs l’exploitation sexuelle des enfants. Aujourd’hui, aprs les licenciements et les dmissions, il y a moins de 10 spcialistes formant ce que Bloomberg a dcrit comme une quipe squelettique dborde . Musk n’a pas cr un environnement dans lequel l’quipe voulait rester , ont dclar des sources Bloomberg.

Le personnel que Musk a perdu, selon Bloomberg, comprenait des experts en scurit des enfants et d’anciens agents des forces de l’ordre aux tats-Unis, en Irlande et Singapour. Les sources ont dclar que cette quipe travaillait dj plus longtemps (avant que Musk ne demande aux employs de s’engager faire plus d’heures) juste pour essayer de suivre le flux constant de rapports d’utilisateurs et de demandes lgales.

Ces personnes ont supprim les CSAM, ont aid les enqutes des forces de l’ordre et en se basant sur le raisonnement humain plutt que sur l’intelligence artificielle ont identifi les comptes qui prparent des mineurs ou promeuvent l’attirance pour les mineurs comme tant sains.

Bien que Twitter ait rcemment supprim certains hashtags connus utiliss pour diffuser les CSAM, cette mesure n’tait pas une solution complte ou permanente, car les hashtags changent, tout comme le langage cod que les abuseurs utilisent pour contourner la suppression automatique du contenu. Comme la suppression de ces hashtags a eu lieu aprs la prise de contrle de Musk, il est facile de lui attribuer la dcision et d’y voir son engagement bloquer les CSAM. Cependant, des sources ont dclar que la dcision de supprimer les hashtags avait t prise avant l’arrive de Musk bord.

Il ne reste donc qu’un seul membre de l’quipe charge de la scurit des enfants pour traiter tous les rapports provenant de la rgion Asie-Pacifique. Cela signifie que Twitter dispose d’un expert qui comprend la fois les lois rgionales pour assurer la coordination avec les forces de l’ordre et les mots de code volutifs utiliss dans les langues autres que l’anglais dans cette rgion pour chapper la dtection.

Limpact de labsence de ces quipes sur la capacit de Twitter s’attaquer au CSAM

L’impact des licenciements et des dmissions sur la capacit de Twitter s’attaquer au CSAM est trs inquitant , dclare Carolina Christofoletti, chercheuse sur le CSAM l’universit de So Paulo au Brsil. Il est illusoire de penser qu’il n’y aura pas d’impact sur la plateforme si les personnes qui travaillaient sur la scurit des enfants au sein de Twitter peuvent tre licencies ou autorises dmissionner , dit-elle.

Les experts en scurit des enfants de Twitter ne luttent pas seuls contre le CSAM sur la plateforme. Ils reoivent l’aide d’organisations telles que l’Internet Watch Foundation (Royaume-Uni) et le National Center for Missing & Exploited Children (tats-Unis), qui effectuent galement des recherches sur Internet pour identifier les contenus de ce type partags sur des plateformes telles que Twitter. L’IWF (Internet Watch Foundation) indique que les donnes qu’elle envoie aux entreprises technologiques peuvent tre automatiquement supprimes par les systmes de ces dernires, sans qu’une modration humaine soit ncessaire. Cela permet de garantir que le processus de blocage est aussi efficace que possible , explique Emma Hardy, directrice de la communication de l’IWF.

Mais ces organisations externes se concentrent sur le produit final et n’ont pas accs aux donnes internes de Twitter, explique Christofoletti. Elle dcrit les tableaux de bord internes comme essentiels pour analyser les mtadonnes afin d’aider les personnes qui rdigent le code de dtection identifier les rseaux CSAM avant que le contenu ne soit partag. Les seules personnes capables de voir ces [mtadonnes] sont celles qui sont l’intrieur de la plateforme , dit-elle.

Musk risque des amendes si l’quipe charge de la scurit des enfants de Twitter, dj dborde, est dpasse

La suppression de l’exploitation des enfants est la “priorit n1”, a dclar la semaine dernire le nouveau propritaire et PDG de Twitter, Elon Musk. C’est une responsabilit qu’il ne peut pas esquiver. Contrairement au blocage des discours haineux et des fausses informations qui peuvent, dans certains cas, violer les rgles de Twitter, Musk est lgalement tenu de bloquer les CSAM sur sa plateforme.

Cela signifie que sa promesse de libert de parole, pas de libert d’accs (qui prvoit de contenir les discours et informations haineux non criminels simplement en ne les promouvant pas auprs des utilisateurs de Twitter) n’est pas une stratgie acceptable pour faire face au CSAM. En Europe notamment, les lgislateurs svissent contre le CSAM, et de nouvelles lois dictent la manire dont les plateformes abordent la scurit des enfants en ligne. Musk pourrait continuer perdre de l’argent sur Twitter s’il risque des amendes, qui pourraient atteindre 10 % des revenus de Twitter, pour avoir enfreint les lois sur la scurit des enfants. Le projet de loi britannique sur la scurit des enfants en ligne menace mme de bloquer les plates-formes au niveau rgional dans les cas graves o le CSAM ne peut tre contrl de manire adquate.

Musk semble galement savoir qu’il ne peut pas se permettre de voir Twitter tre exclu de l’App Store d’Apple, ce que Yoel Roth, ancien responsable de Twitter Trust & Safety, a crit dans le New York Times et qui pourrait se produire si Twitter ne donne pas la priorit la protection des enfants sur la plateforme.

Des experts ont dclar Wired que les organisations de protection de l’enfance aident les plateformes de mdias sociaux comme Twitter dtecter et supprimer automatiquement beaucoup de CSAM, mais la technologie ne peut pas remplacer les modrateurs humains qui ont accs plus de donnes que les organisations extrieures. En septembre, lorsque Twitter avait encore un porte-parole, Celeste Carswell a dclar que Twitter investissait davantage de ressources consacres la scurit des enfants, notamment en recrutant de nouveaux postes pour rdiger des politiques et mettre en uvre des solutions .

Twitter a galement t contraint de retarder son projet de montiser la communaut des adultes consentants et de devenir un concurrent d’OnlyFans, car il craignait que cela ne risque d’aggraver le problme de CSAM de la plateforme. Twitter ne peut pas dtecter avec prcision l’exploitation sexuelle des enfants et la nudit non consensuelle l’chelle , peut-on lire dans un rapport interne datant d’avril 2022. En septembre, nous avons rapport que certaines marques abandonnaient Twitter spcifiquement parce que Twitter plaait leurs publicits ct de CSAM. David Maddocks, le prsident de la marque Cole Haan, a rsum les proccupations des annonceurs en disant : Nous sommes horrifis .

Les chercheurs s’inquitent de la manire dont Twitter va s’attaquer au problme du CSAM sous son nouveau propritaire. Ces proccupations n’ont t qu’exacerbes lorsque Musk a demand ses followers de rpondre dans les commentaires s’ils voyaient des problmes sur Twitter qui devaient tre abords. Cette question ne devrait pas tre un fil de discussion sur Twitter. C’est la question mme qu’il devrait poser l’quipe de scurit des enfants qu’il a licencie. C’est l toute la contradiction , dclare Christofoletti.

Sources : Bloomberg, Wired

Et vous ?

Quel est votre avis sur le sujet ?

Voir aussi :

Twitter a maintenant du mal payer certains employs en Europe temps, aprs les dparts massifs qui ont touch son service des salaires



Un cadre suprieur de Twitter a obtenu une injonction du tribunal pour empcher Elon Musk de la licencier. La VP pour les politiques publiques refuse la culture de travail “extrmement hardcore”

Des centaines d’employs refusent de faire partie de l’quipe Twitter la culture de travail “extrmement hardcore”, Musk met au dfi les managers d’approuver le tltravail leurs propres risques

Les licenciements et des dmissions ont vid l’quipe de Twitter charge de la scurit des enfants, alors que Musk a dclar que la lutte contre les abus envers les enfants est sa principale priorit