Polémique. Facebook : des annonces ciblées pour “antisémites”

0
27

“Comment tuer les Juifs” : voici le mot-clé suggéré par Facebook à des journalistes du site ProPublica qui ont testé l’achat d’encart publicitaire en ligne. Le réseau social offrait la possibilité aux annonceurs de cibler des internautes clairement identifiés comme antisémites.

“Vous voulez vendre des bibelots et des souvenirs nazis ou recruter du monde pour un rassemblement d’extrême-droite ? Avec son système d’achat d’espaces publicitaires en libre-service, Facebook vous permet de trouver votre public”, annonce ProPublica.

Le site d’investigation américain a mis en lumière de nouvelles failles dans le système de publicité du réseau social : en voulant acheter un encart, il s’est rendu compte que Facebook pouvait rapidement proposer de promouvoir un post sponsorisé auprès d’internautes clairement identifiés comme des antisémites. Parmi les sujets d’intérêt suggérés par Facebook : “Comment brûler les Juifs”.

Lorsqu’un professionnel souhaite mettre en ligne une pub sur Facebook, il lui est proposé de détailler le public auquel son contenu s’adresse. Lieu de résidence, âge, centres d’intérêt, type d’emploi occupé : autant de cases à remplir afin de maximiser l’audience. Le contenu n’est pas publié tant que Facebook estime que le champ d’audience est trop restreint.

Algorithmes douteux

Les journalistes de ProPublica ont ainsi essayé d’écrire antisémite” dans la barre de recherche. Automatiquement, Facebook leur a recommandé comme centres d’intérêt : “Comment brûler les Juifs”, “Histoire sur la façon dont les Juifs ont détruit le monde”. Parce que l’audience était encore trop limitée, les journalistes ont été invités à choisir d’autres mots-clés. Avec “Hitler”, une nouvelle catégorie s’est affichée : “Hitler n’a rien fait de mal”.

En ajoutant, dans la catégorie employeur, “German Schutzstaffel” (les SS) et “parti nazi”, l’audience s’est encore élargie. Il a fallu rajouter “le parti national démocrate d’Allemagne”, un parti ultranationaliste, pour que l’audience soit suffisante selon Facebook. Quinze minutes plus tard, et trente dollars payés, la publicité était publiée.

Comment est-ce possible ? Contacté par ProPublica, Facebook a expliqué que ces catégories – promptement retirées – avaient été générées automatiquement par des algorithmes. L’entreprise a indiqué qu’elle comptait dorénavant limiter le nombre de catégories proposées et les examiner minutieusement avant qu’elles ne soient suggérées à ses clients.

Employeur : Ku Klux Klan

Pourtant, lorsqu’une heure après la publication de l’article de ProPublica, le site Slate a entrepris de publier une publicité sur Facebook, il a fait un constat similaire : si les catégories mises en cause par ProPublica avaient été retirées, Facebook n’a eu aucun mal à proposer “Tuer les Juifs” et “Violer les femmes” dans la catégorie “centres d’intérêt” et “Tuer les musulmans radicaux” et “Ku Klux Klan” dans la catégorie employeur.

“À l’instar de nombreuses entreprises du secteur de la technologie, Facebook a longtemps opté pour le laisser-faire dans son activité publicitaire”, explique ProPublica, qui poursuit :

Contrairement aux médias qui sélectionnent le public qu’ils offrent aux annonceurs, Facebook génère ses catégories de publicité automatiquement, en fonction de ce que les utilisateurs partagent explicitement sur Facebook, et de ce que révèle leur activité en ligne.”

Ce n’est pas la première fois que le groupe de Mark Zuckerberg est épinglé dans ce type d’affaire : en 2016, ProPublica avait déjà réussi à exclure de l’objectif d’audience d’une publicité immobilière certaines communautés ethniques, une pratique discriminatoire illégale.

Par ailleurs, la semaine dernière, Facebook a révélé qu’il avait vendu, sans le savoir, pour 100 000 dollars d’espaces publicitaires à des groupes de propagande russes pro Kremlin, suspectés de vouloir influencer l’élection présidentielle américaine de 2016. Depuis, Facebook a timidement déclaré qu’“il n’y a pas de place pour la haine dans notre communauté”.

Claire Gounon



Source link

Laisser un commentaire