Peut-on lutter contre l’incitation à la haine sur les réseaux ?

13177058_1024420460946874_2604800262891630468_n

Racisme, exhortation à la violence, diffamation… On trouve sur les réseaux sociaux, de nombreux commentaires normalement illégaux. Mais le statut des plateformes rend la lutte délicate.

«Se réjouir sur Facebook de la mort d’un migrant, c’est honteux, inhumain et illégal.» Sous ce titre, le «coup de gueule» de la rédaction de France 3 Nord-Pas-de-Calais face au déferlement de commentaires haineux sur sa page Facebook après la publication d’un article sur la mort d’un migrant à Calais. Parmi le flot de réactions : «Youpi !», «Champagne» ou encore «Lol». Et le phénomène, explique la rédaction de France 3 Nord-Pas-de-Calais, n’a rien d’inédit.

En effet, depuis plusieurs mois, les tensions autour de la «Jungle» de Calais ont trouvé un terrain d’expression sur les réseaux sociaux et notamment sur Facebook. Sur les pages des médias, chaque article relatant des faits liés de près ou de loin aux migrants, déclenche des réactions hystériques. «On vit une guerre des extrêmes autour des migrants», assure-t-on à Nord Littoral, quotidien local qui a d’ailleurs pris la décision en novembre de publier les commentaires les plus haineux et le nom de leur auteur sur un «mur de la honte».

«Notre marge de manœuvre est réduite. On peut supprimer les commentaires, répondre, bannir un internaute mais on a l’impression que c’est un puits sans fond», explique Emmanuel Magdelaine, responsable du site de France 3 Nord-Pas-de-Calais. Au sein des rédactions concernées, certains journalistes pensent donc qu’il faudrait porter plainte contre les internautes pour aller au bout des choses. Mais encore faut-il que la justice en ait les moyens.

Il y a deux ans, suite à de multiples plaintes, le procureur du tribunal de grande instance de Boulogne a ouvert une enquête sur les propos racistes et incitant à la haine du collectif anti-migrants Sauvons Calais, propos tenus lors de rassemblements mais aussi sur leur page Facebook. «Ça n’a rien donné», souffle-t-il aujourd’hui. «C’est très difficile à maîtriser juridiquement. Ça dépend du bon vouloir des sociétés, nous n’avons aucun moyen de pression et Facebook fait la sourde oreille.»

Diffamation, incitation à la haine raciale, à la violence, parfois même appel au meurtre… Face à l’afflux de commentaires normalement punis par la loi, les géants du Web tels Facebook ou Twitter ne sont pas toujours très réactifs. C’est ce que montre une étude de SOS Racisme, SOS Homophobie et de l’Union des étudiants juifs de France qui doit être présentée dimanche 15 mai à Paris lors de la seconde édition des Assises de la lutte contre la haine sur Internet.

Pendant dix jours, des militants ont réalisé «le premier testing de masse sur Internet» en signalant aux plateformes internet concernées «586 contenus racistes, antisémites, négationnistes, homophobes, faisant l’apologie du terrorisme ou de crime contre l’humanité».

Résultat : sur les 205 contenus signalés sur Twitter, «seuls 4% ont fait l’objet d’un retrait». YouTube ne fait pas beaucoup mieux avec 7% des 225 contenus haineux signalés. De son côté, Facebook a fait disparaître 34% des 156 contenus mis en cause par le testing. Comment expliquer un tel résultat ?

La loi de 1981 et le statut d’hébergeur

En France, c’est la loi de 1881 sur la liberté de la presse qui encadre la liberté d’expression et, du même coup, punit la diffamation, l’injure et les propos racistes ou antisémites, qui incitent à la discrimination, la haine ou la violence. «Cela a d’abord été appliqué aux livres, aux affiches, puis à la radio, à la télé et ainsi de suite. Au début des années 90, les juges se sont vu soumettre des cas concernant le Minitel. Puis ça a été au tour d’Internet. Ça a fait jurisprudence», raconte l’avocat Basile Ader. La loi s’applique donc aux réseaux sociaux. À noter que le délit d’apologie du terrorisme, jusqu’ici sanctionné par la loi de 1881, est passé dans le code pénal, sous l’impulsion de Bernard Cazeneuve en novembre 2014.

Facebook, Twitter ou encore YouTube, dans la loi française, ont le statut d’hébergeur. En tant que tels, ils ne sont pas responsables de tout ce qui est publié sur leur plateforme et n’ont pas à exercer de contrôle avant publication. Cependant, «ils ont l’obligation de supprimer un contenu illégal s’ils en ont eu connaissance», explique Me Ader. «Mais personne n’est là pour surveiller ce qu’ils voient. Il faut donc prouver qu’on les a alertés en signalant le contenu concerné. S’ils n’agissent pas, à ce moment-là, promptement, on peut considérer qu’ils sont responsables.»

Les procédures de signalement

Ces différentes plateformes doivent donc mettre à disposition des internautes des outils de signalement.

Charlotte Belaich

Pour marque-pages : Permaliens.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *