/

Comment Facebook pousse à « liker » un génocide

information
Le réseau social Facebook fêtait ses 15 ans le 4 février. Le rôle de la plateforme dans la propagation de discours de haine a suscité beaucoup de débats récemment. Au cœur de la controverse se trouve Myanmar, où Facebook a été utilisé pour contraindre des centaines de milliers de Rohingyas à quitter leur pays au cours d’une campagne qualifiée de génocide par les Nations unies. Facebook doit-il être tenu responsable dans l’avenir ? Le sera-t-il ? Une enquête de Janet Anderson pour Justiceinfo.net.
 
Facebook, société américaine pesant plusieurs centaines de milliards de dollars, s’est fait mettre au pilori pendant toute l’année 2018 comme étant le réseau social à travers lequel les fausses nouvelles sont répandues et amplifiées, au risque d’altérer le résultat d’élections ou de référendums à travers le monde.
Nombreux sont les hashtags exprimant l’indignation à cet égard, moins nombreux sont ceux à propos des erreurs commises par l’entreprise alors qu’elle attirait sur son réseau des millions de nouveaux utilisateurs vivant dans des Etats fragiles. Comme notamment à Myanmar, où environ 700 000 Rohingyas musulmans ont été expulsés de chez eux à la suite d’une campagne brutale de discours haineux, dans ce que l’Onu a décrit comme un génocide.
 
Facebook sera-t-il jamais vraiment tenu responsable de ses (in)actions dans des situations comme celle de Myanmar ? Emma Irving, maître assistante à faculté de droit de l’université de Leiden, pense que c’est très improbable. « Ils ont monopolisé l’espace public, ils le contrôlent, sans avoir aucun compte à rendre », dit-elle. « Je crois que les choses sont peut-être en train de changer », estime quant à elle Alexa Koenig, directrice du Centre pour les droits de l’homme (HRC) à l’université de Berkeley. « Je ne serais pas surprise si, dans relativement peu de temps, certains cadres réglementaires sont mis en place pour aider à clarifier ce monde indéfini des devoirs des plateformes envers les populations qu’elles servent de différentes manières. »
 

La campagne de Myanmar  

Mais avant de savoir si ces cadres peuvent conduire à devoir rendre des comptes pour des crimes commis, reprenons ce qui s’est passé à Myanmar.
Facebook est, en substance, accusé d’avoir été utilisé pour promouvoir un discours de haine. Il semble qu’il y ait eu « une campagne orchestrée, concertée sous le contrôle de l’armée pour utiliser la plateforme afin de désinformer le public », explique Félim McMahon, directeur de la technologie au HRC. Journaliste et enquêteur de formation, McMahon est actuellement en congé de son travail à la Cour pénale internationale et étudie en particulier le lien entre réseaux sociaux et crimes de guerre. Une vaste enquête de Reuters, à laquelle le HRC a contribué, décrit un contexte marqué par l’expansion rapide des smartphones avec la réintroduction de la démocratie à Myanmar après 2011. « En 2016, presque la moitié de la population avait un abonnement à la téléphonie mobile. (…) La plupart des smartphones achetés disposaient d’un accès à Internet », note le rapport. Et avec ces offres à bas prix, l’application Facebook devint virale.
Une enquête du New York Times a révélé la façon exacte par laquelle « la campagne de propagande, dissimulée derrière faux-noms et comptes fictifs, n’a pas été détectée. La campagne, décrite par cinq personnes qui, craignant pour leur sécurité, ont requis l’anonymat, comprend des centaines de membres de l’armée qui ont créé trolls, pages d’informations ou de personnalités connues sur Facebook avant de les inonder de commentaires incendiaires et de messages programmés aux heures de pointe. »
« Nous avons étudié les discours de haine à Myanmar sur deux ans. Nos équipes ont rassemblé l’information. Toute personne qui veut bien ouvrir les yeux peut voir que de nombreux sentiments négatifs étaient dirigés vers la plateforme », confirme McMahon.
 

Les limites de l’algorithme

Le fait que Facebook ait été dépassé est évident. La compagnie a essayé de réguler les contenus en birman ; des messages offensants ont été retirés. Mais ces efforts butaient à la fois sur le flot et sur le manque d’une connaissance culturelle profonde. Un exemple en est fourni dans le rapport de Reuters à propos d’une insulte raciale – « kalar » – qui peut être un terme hautement péjoratif à l’égard des musulmans mais peut aussi avoir un sens plus innocent : pois chiche. Interdire ce mot sur Facebook, en soi, n’a aucun sens. La tendance à vouloir résoudre le problème à travers une réponse purement technologique et automatisée inquiète d’ailleurs Koenig. Elle reconnaît que la simple « échelle des contenus partagés sur les plateformes » implique une approche technologique. Mais tant que les réseaux sociaux ne feront pas « plus d’analyse sociologique », les algorithmes automatisés « continueront à être un outil rudimentaire face à des sujets très sensibles ».
 
Finalement, en août 2018, Facebook a fermé 18 comptes et 52 pages liés à des responsables birmans. La société annonce alors avoir « trouvé des preuves que ces individus et organisations ont commis ou autorisé de graves violations des droits de l’homme dans ce pays ».
Est-ce une réponse sérieuse à un génocide présumé ?
 

Une responsabilité toute théorique  

« Le communiqué de presse de Facebook sur la fermeture de ces comptes indique à mes yeux qu’ils veulent au moins que le monde croie qu’ils prennent le problème au sérieux », observe Irving, qui étudie également données digitales et responsabilité pour atrocités de masse. Koenig est plus positive : « Je pense vraiment qu’ils veulent trouver la solution. Je crois que nous assistons en ce moment même à un mouvement qui vient des plus hauts échelons de la direction du développement dans toutes ces plateformes et qui s’efforce de comprendre comment traduire cela dans la pratique dans le monde du digital. »
 
L’entreprise a également commandé un rapport indépendant sur les droits de l’homme fondé, dit-elle, sur les Principes directeurs des Nations unies sur les entreprises et les droits de l’homme et qu’elle a rendu public en novembre 2018. Le rapport réprimande Facebook pour n’avoir pas empêché sa plateforme d’être utilisée pour « fomenter la division et inciter à la violence en dehors du réseau » à Myanmar, a reconnu l’un des dirigeants de Facebook, Alex Warofka. Le rapport présente l’extraordinaire image d’une entreprise qui n’avait apparemment aucune conscience – à l’époque – de son propre potentiel de nuisance. Il montre que la direction de Facebook n’a pas fait grand-chose pour vérifier les faits sur le terrain.
 
Irving décrit ce type de rapports commandés comme faisant partie de cette “responsabilité toute rhétorique” qu’elle a vu être adoptée de plus en plus par les réseaux sociaux. Priya Pillai, consultante et chercheuse en droit international, et bloggeuse sur Opinio Juris, avait espéré aussi davantage de consistance : « Facebook a besoin de reconnaître réellement son action et son impact potentiel à Myanmar d’une manière plus complète, ce que le rapport n’a pas du tout fait. Il s’agit fondamentalement d’éviter une difficile discussion. »
 

Prouver l’intention

Facebook pourra-t-il donc jamais – et sera-t-il – tenu responsable de la manière dont on abuse de sa plateforme ? Cela paraît peu probable.
En tant qu’entreprise, Facebook avait le devoir de mener les vérifications nécessaires, affirme Irving, et de « savoir si [sa] conduite des affaires allait causer un problème de droits de l’homme dans la région ». Mais au final tous ces principes des droits humains ne sont pas contraignants. « Pour être honnête, on finit donc dans une impasse. »
 
Pillai suggère de prendre exemple sur la façon dont des individus liés à des médias ont été poursuivis pour incitation au génocide au Tribunal des Nations unies pour le Rwanda, y compris des membres du conseil de direction de la célèbre radio des Mille collines (RTLM). « Je pense effectivement qu’on peut faire un parallèle », dit-elle, en défendant que, même si « ce n’est peut-être pas exactement la même situation », on pourrait affirmer que, dans la mesure où Facebook était le moyen de diffusion des discours de haine, il « a selon toute vraisemblance créé les conditions de la commission d’atrocités de masse ».
 
Irving souligne cependant que Facebook est une plateforme et non une société de production média ou un diffuseur ou un auteur. Contrairement à la RTLM, « ce n’est pas Facebook lui-même qui génère du contenu haineux et incitatif ». Mais potentiellement, poursuit-elle, « si on construit des algorithmes de telle façon à ce qu’ils fassent la promotion de contenus haineux ou incitatifs tout en haut du fil d’actualité d’une personne, on est davantage qu’une simple plateforme d’accueil neutre ».
« On discute beaucoup, ces temps-ci, des différentes théories juridiques qui permettraient de rendre responsables les plateformes », reconnaît Koenig, « mais l’une des questions que je me pose en tant que juriste est celle-ci : a-t-on affaire à quelque chose du type « savait ou avait des raisons de savoir » comme dans le principe du supérieur hiérarchique ? »
 
En droit humanitaire international, les commandants peuvent être tenus responsables de crimes de guerre commis par leurs subordonnés, dans certaines circonstances, quand ils savaient ou avaient des raisons de savoir que des crimes étaient commis et n’ont rien fait pour les prévenir ou les punir. Mais si Koenig admet que les réseaux sociaux ont « un contrôle énorme sur ce qui vient sur leur espace de communauté », elle ne voit pas facilement devant quelle juridiction ils pourraient rendre des comptes.
 
Irving répond plus sèchement qu’elle croit cela impossible car Facebook est une entreprise, pas un individu. « J’ai étudié toutes les possibilités imaginables et, d’un point de vue strictement juridique, Facebook est une entreprise privée » et « si on veut essayer de poursuivre Mark Zuckerberg [fondateur et président de Facebook] pour assistance et complicité de génocide et de crimes contre l’humanité… je crois qu’on aurait beaucoup de mal à prouver l’intention. »
 

« C’est une sorte de Far West »

Qu’est-ce qui attend donc Facebook ?
« Pour Myanmar, c’est trop tard », dit McMahon. On ne peut pas revenir sur le passé, dit Irving, mais on peut essayer de voir « comment ne pas commettre le même genre de torts dans l’avenir ». Le géant des réseaux sociaux cherche manifestement à s’ouvrir à la société civile et aux universitaires pour essayer de s’améliorer. Et la pression pour une réforme, alimentée par celle d’enquêtes journalistiques critiques, ne fléchit pas.
Des Etats fragiles comme Myanmar, souffrant souvent de profondes divisions et manquant d’éducation aux médias, sont devenus des lieux où une plateforme de réseau social comme Facebook est en fait l’Internet pour beaucoup de gens. Irving compare Facebook à un service public et, « si Facebook se trouve à égaler « L’Internet », en tant qu’entreprise cela entraîne un ensemble de responsabilités ».
« C’est une sorte de Far West », estime Koenig, « où sur le plan de l’histoire on a peuplé une terre, les gens ont revendiqué leurs droits et l’étape suivante sera vraiment d’avoir l’équivalent d’une Déclaration des droits ou d’une Constitution. »
“Nous constatons que l’entreprise commence à ne plus rejeter toute responsabilité et éviter toute réglementation, pour se pencher sur le problème au lieu de nier et semer la confusion », dit McMahon. « La question est : sont-ils prêts à prendre le virage », appuie Koenig. « Dans toute institution ou champ de travail, il y a une courbe d’apprentissage, une période pendant laquelle les gens sont parfaitement prêts à troquer les responsabilités pour l’innovation », ajoute-t-elle. « Mais maintenant que des réseaux sociaux comme Facebook ont atteint la maturité, je crois qu’on tolère moins l’idée que tout est permis. »
 
De nouvelles approches sont nécessaires, qui « incluent la société civile, les Etats et les plateformes », dit McMahon. « Il va falloir que les dirigeants décident s’ils sont prêts à écouter et à apprendre de communautés qui ne semblent pas avoir une expertise technologique évidente », dit Koenig, « mais ont certainement une expertise sociale et culturelle. Je pense que cela est tout à fait possible. Mais écouter est une tâche fort difficile. »
 

Le danger de l’autorégulation

Un autre danger est celui d’aller trop loin dans l’autre direction et de réglementer un espace de liberté d’expression – tout interdire – au détriment de tous, dont les journalistes et les enquêteurs de droits de l’homme. Les critiques de « la société civile ont poussé [Facebook] dans une direction où il devient Big Brother et nous ne voulons pas de cela », dit McMahon. Irving est d’accord sur ce risque actuel : « Fondamentalement, on donne à des entreprises privées la tâche de décider ce qui est un discours haineux, ce qui est un discours acceptable, ce qui constitue une incitation… On leur donne le rôle de décider ce que nous, en tant que société, considérons comme la liberté d’expression, ce qui devrait être censuré, et les règles qu’ils suivent pour le faire sont très peu transparentes et sans obligation de rendre des comptes. »
 
A 15 ans, Facebook peut se comporter comme une plateforme des discours de haine agissant impunément ou comme un autorégulateur également libre de tout contrôle. A moins qu’il ne devienne un adulte plus responsable.
 
Janet ANDERSON,Correspondante à La Haye Justiceinfo.net
 
Illustration d’entête : ©Justiceinfo.net
 

Quelque chose à ajouter ? Dites-le en commentaire.

 

Laisser un commentaire

Your email address will not be published.

climat
Article précédent

L'alerte écologique va-t-elle retourner le système industriel ?

données personnelles
Prochain article

Peut-on imaginer un avenir sans Facebook ?

Derniers articles de Entreprises