Navigation path

Left navigation

Additional tools

Other available languages: EN DE

Commission européenne - Fiche d'information

Le code de conduite visant à combattre les discours de haine illégaux en ligne: questions et réponses sur la quatrième évaluation

Bruxelles, le 4 février 2019

Le code de conduite visant à combattre les discours de haine illégaux en ligne: questions et réponses sur la quatrième évaluation

Voir IP/19/805

Quel est l'objectif du code de conduite?

La Commission européenne a lancé le code de conduite en mai 2016 avec quatre grandes entreprises des technologies de l'information (Facebook, Microsoft, Twitter et YouTube), dans le but de réagir à la prolifération des discours de haine à caractère raciste et xénophobe en ligne.

L'objectif du code est de veiller à ce que les demandes de suppression de contenu soient traitées rapidement. Lorsque les entreprises reçoivent une demande de suppression d'un contenu jugé illicite de leur plateforme en ligne, elles l'évaluent au regard de leurs règles, des lignes de conduite de leur communauté et, s'il y a lieu, des lois nationales qui transposent la législation de l'UE en matière de lutte contre le racisme et la xénophobie. Les entreprises se sont engagées à examiner la majorité des demandes en moins de 24 heures et à supprimer le contenu correspondant si nécessaire, tout en respectant le principe fondamental de la liberté d'expression.

À l'heure actuelle, neuf entreprises ont adhéré au code, à savoir Facebook, YouTube, Twitter, Microsoft, Instagram, Google+, Dailymotion, Snapchat et Webedia (jeuxvideo.com).

Comment la Commission évalue-t-elle la mise en œuvre du code de conduite?

Le code de conduite est évalué, au moyen d'un exercice de suivi, par un réseau d'organisations de la société civile situées dans différents pays de l'UE. Ces organisations testent, selon une méthode commune, la manière dont les entreprises des technologies de l'information appliquent le code de conduite en pratique.

Pour ce faire, elles leur envoient régulièrement des demandes de suppression de contenus de leurs plateformes en ligne. Les organisations participant à l'exercice de suivi consignent la durée nécessaire à l'évaluation de la demande par l'entreprise, la façon dont l'entreprise réagit à la demande et le retour d'information qu'elles reçoivent de l'entreprise.

Quels sont les principaux enseignements du quatrième exercice de suivi? 

  • Réaction rapide lorsque les utilisateurs notifient des discours de haine illégaux aux plateformes

Les résultats du quatrième exercice de suivi, qui portait également sur Instagram et Google+, montrent qu'environ 89 % des notifications sont évaluées dans les 24 heures. Les entreprises des technologies de l'information respectent pleinement l'objectif consistant à examiner la majorité des notifications dans un délai de 24 heures. Facebook a même atteint un pourcentage de 92,6 % des notifications évaluées dans ce délai.

Les entreprises des technologies de l'information ont supprimé en moyenne près de 72 % des discours de haine illégaux qui leur avaient été notifiés par les ONG et les organismes publics participant à l'évaluation. Un taux de suppression situé entre 70 et 80 % est considéré comme satisfaisant, étant donné que certains contenus signalés par les utilisateurs pourraient ne pas être illicites. Afin de protéger la liberté d'expression, il convient que seuls les contenus illicites soient supprimés.

  • Évaluation cohérente et scrupuleuse des discours de haine illégaux

Le taux moyen de suppression est plus élevé pour les cas de discours de haine illégaux supposés qui sont plus graves. Les contenus appelant au meurtre ou à la violence dirigés contre certains groupes sont supprimés dans 85,5 % des cas. De même, le taux de suppression des contenus potentiellement négationnistes s'établit à 75 %. Les contenus dans lesquels des propos ou des images dégradants ou diffamatoires sont utilisés pour désigner certains groupes sociaux ou des personnes appartenant à de tels groupes sont supprimés dans 58,5 % des cas. Il semble donc que l'examen effectué par les entreprises tient dûment compte des discours protégés par le droit à la liberté d'expression et qu'il n'existe aucun signe de suppression excessive.

  • Nécessité d'efforts supplémentaires en matière de transparence et de retour d'information aux utilisateurs

Les informations fournies aux utilisateurs au sujet du résultat de leurs notifications restent insuffisantes: le pourcentage moyen de notifications ayant fait l'objet d'un retour d'information est légèrement inférieur à celui de l'an dernier (65,4 % contre 68,9 %). Facebook est la seule plateforme qui fournit un retour d'information systématique à tous les utilisateurs; les autres plateformes n'en sont pas encore là (Twitter: 60,4 %, Instagram: 41,9 %, YouTube: 24,6 %).

  • Promotion des discours positifs sur la tolérance et le pluralisme

Les organisations de la société civile, les autorités nationales et les plateformes informatiques ont créé des partenariats pour mener des activités de sensibilisation et d'éducation dans le but de promouvoir des discours positifs sur la tolérance et le pluralisme. Une grande campagne en ligne sera lancée dans les prochains mois au niveau de l'UE grâce aux efforts conjoints des entreprises et des organisations de la société civile.

 

Tableau présentant les principaux résultats:

Contenus supprimés

1re évaluation

(déc. 2016)

2e évaluation

(mai 2017)

3e évaluation

(déc. 2017)

4e évaluation

(déc. 2018)

Facebook

28,3 %

66,5 %

79,8 %

82,4 %

YouTube

48,5 %

66,0 %

75,0 %

84,5 %

Twittter

19,1 %

37,4 %

45,7 %

42,5 %

Instagram

-

-

-

70,5 %

G+

-

-

-

76 %

Total

28,2 %

59,1 %

70,0 %

71,7 %

 

Notifications évaluées dans les 24 heures

1re évaluation

(déc. 2016)

2e évaluation

(mai 2017)

3e évaluation

(déc. 2017)

4e évaluation

(déc. 2018)

Facebook

50,0 %

57,9 %

89,3 %

92,5 %

YouTube

60,8 %

42,6 %

62,7 %

80,9 %

Twittter

23,5 %

39,0 %

80,2 %

88,0 %

Instagram

 

 

 

77,7 %

G+

 

 

 

47,4 %

Total

40 %

51,4 %

81,6 %

88,9 %

 

Les engagements pris dans le cadre du code de conduite ont-ils été respectés?

Les résultats du suivi montrent que, depuis l'adoption du code, les entreprises des technologies de l'information ont renforcé leurs systèmes de signalement, facilitant la notification des discours de haine, et amélioré leur transparence à l'égard des notifiants et des utilisateurs en général. Elles ont augmenté le nombre de leurs effectifs chargés d'examiner les demandes ainsi que les ressources allouées à la gestion des contenus. Cela a permis d'améliorer les réactions aux signalements/notifications de discours de haine. En 2016, seulement 40 % des notifications étaient évaluées dans les 24 heures, contre 89 % aujourd'hui. Le taux de suppression des discours de haine est passé de 28 % en 2016 à 72 % en 2018.

En outre, les entreprises des technologies de l'information ont renforcé leur coopération avec les organisations de la société civile dans le cadre de partenariats et de programmes spécifiques, ainsi que par des formations régulières, afin d'assurer une meilleure compréhension des systèmes de signalement, du contexte national et des spécificités juridiques liées aux discours de haine.

En ce qui concerne la transparence à l'égard du grand public, en 2016, les entreprises des technologies de l'information ne publiaient des informations que sur le nombre de demandes des services répressifs et fournissaient rarement des précisions sur les discours de haine illégaux en tant que motif spécifique de suppression. Aujourd'hui, les suppressions de discours de haine sont présentées de manière adéquate et régulière dans chacun des rapports de transparence de ces entreprises. Des progrès supplémentaires pourraient toutefois encore être réalisés, pour fournir une ventilation plus détaillée par exemple.

Pour ce qui est du retour d'information aux utilisateurs notifiants, des progrès doivent encore être accomplis. En moyenne, près d'un tiers des notifications ne font l'objet d'aucun retour d'information, bien que des différences notables existent entre les entreprises.

De plus amples informations sur les résultats obtenus grâce au code sont disponibles ici.

Comment le code de conduite contribue-t-il aux travaux plus larges de la Commission concernant les contenus illicites?

Les résultats du suivi du code de conduite alimentent les travaux plus larges de la Commission sur le rôle des plateformes en ligne dans la prévention, la détection et la suppression des contenus illicites.

Le 28 septembre 2018, la Commission a adopté une communication fournissant des orientations aux plateformes concernant les procédures de notification et action visant à lutter contre les contenus illicites en ligne. L'importance du combat contre les discours de haine illégaux en ligne et la nécessité de poursuivre sur la voie de la mise en œuvre du code de conduite sont mises en évidence dans ce document d'orientation.

Une recommandation de la Commission sur les mesures destinées à lutter de manière efficace contre les contenus illicites en ligne a été publiée le 1er mars 2018. Elle se compose de deux parties: une partie générale relative aux mesures applicables à tous les types de contenus illicites et une partie spécifique concernant les mesures particulières que les plateformes devraient prendre pour lutter contre les contenus à caractère terroriste. En ce qui concerne les règles applicables à tous les types de contenus illicites, la recommandation porte notamment sur des procédures de «notification et action» plus claires, des outils plus efficaces et des technologies proactives, des garanties plus solides en ce qui concerne les droits fondamentaux, une attention particulière aux petites entreprises et une coopération plus étroite avec les autorités.

Quelle est la définition d'un discours de haine illégal?

Le droit de l'Union (décision-cadre sur la lutte contre certaines formes et manifestations de racisme et de xénophobie au moyen du droit pénal) définit le discours de haine illégal comme l'incitation publique à la violence ou à la haine visant des personnes ou des groupes de personnes, définis sur la base de certaines caractéristiques, dont la race, la couleur, la religion, l'ascendance et l'origine nationale ou ethnique.

Le code de conduite constitue-t-il la bonne solution pour lutter contre les discours de haine en ligne?

L'approche fondée sur l'autoréglementation établie par le code de conduite s'est révélée être un outil efficace pour permettre aux entreprises d'accomplir rapidement des progrès face à un problème de société majeur. Une politique ne peut constituer à elle seule l'unique solution pour lutter contre la prolifération de la haine en ligne.

Le code de conduite est principalement axé sur la procédure de notification et action et sur les suppressions; il aide donc à traiter les «symptômes». Les problèmes que posent les discours de haine en ligne doivent être traités de manière globale. La réaction rapide aux notifications doit aller de pair avec une action:

  • des autorités nationales, qui devraient renforcer leurs capacités répressives et assurer des poursuites efficaces;
  • des plateformes informatiques, qui doivent continuer à réaliser des progrès;
  • de la société civile, encourageant les discours positifs, les programmes d'éducation et les campagnes de sensibilisation en faveur de la tolérance et du pluralisme.

Comment la Commission travaille-t-elle avec les différentes plateformes informatiques?

Le code de conduite repose sur la coopération entre la Commission européenne, les plateformes informatiques, les organisations de la société civile et les autorités nationales. Toutes les parties prenantes se réunissent régulièrement dans le cadre du groupe de haut niveau sur la lutte contre le racisme et la xénophobie afin d'examiner les problèmes à régler et les avancées réalisées. En plus des exercices réguliers de suivi, la Commission entretient un dialogue permanent avec les plateformes afin d'encourager les progrès concernant tous les engagements inscrits dans le code.

Des ateliers et des formations sont également organisés avec les entreprises et d'autres parties prenantes. Par exemple, un atelier organisé avec Google à Dublin en novembre 2017 a porté sur l'amélioration de la qualité des notifications des signaleurs de confiance aux fins d'une réaction plus efficace des personnes chargées d'examiner les contenus au sein des entreprises. Des manifestations similaires ont ensuite été organisées avec Facebook et Twitter, respectivement en juin 2018 et en janvier 2019.

Le code de conduite entraîne-t-il une censure?

Non. Le code de conduite vise à lutter contre les discours de haine en ligne qui sont déjà illégaux. Les mêmes règles s'appliquent en ligne et hors ligne. Les contenus qui sont illicites hors ligne ne devraient pas être autorisés à rester légaux en ligne.

Dans le code, tant les entreprises des technologies de l'information que la Commission européenne soulignent également la nécessité de défendre le droit à la liberté d'expression. Le code ne peut pas être utilisé pour pousser les entreprises des technologies de l'information à supprimer des contenus qui ne sont pas considérés comme des discours de haine illégaux, ou tout type de discours protégé par le droit à la liberté d'expression énoncé dans la charte des droits fondamentaux de l'Union européenne.

En outre, les résultats d'une enquête Eurobaromètre de 2016 montrent que 75 % des personnes qui suivent des débats en ligne ou y participent ont connu des cas d'insultes, de menaces ou de discours de haine visant des journalistes. Près de la moitié d'entre elles ont déclaré que cela les avait dissuadées de se lancer dans des discussions en ligne. Ces résultats montrent qu'il convient de supprimer effectivement les discours de haine illégaux des médias sociaux, car ils risquent de limiter le droit à la liberté d'expression.

Ne revient-il pas aux tribunaux de décider de ce qui est illégal?

En effet, l'interprétation du droit relève toujours de la compétence des juridictions nationales.

Dans le même temps, les entreprises des technologies de l'information doivent se conformer aux lois nationales, en particulier celles qui transposent la décision-cadre sur la lutte contre le racisme et la xénophobie et la directive de 2000 sur le commerce électronique. Lorsqu'elles reçoivent un signalement valable concernant un contenu présumé renfermer un discours de haine illégal, les entreprises des technologies de l'information doivent l'évaluer, non seulement à l'aune de leurs règles et des lignes de conduite de leur communauté, mais aussi, s'il y a lieu, au regard de la législation nationale applicable (y compris celle qui met en œuvre le droit de l'Union), qui respecte pleinement le principe de la liberté d'expression.

Toutes les manifestations de haine (l'expression «Je vous hais», par exemple) sont-elles considérées comme des discours de haine illégaux?  

Les déclarations ou contenus offensants ou prêtant à controverse peuvent être légaux. Comme l'a indiqué la Cour européenne des droits de l'homme, «la liberté d'expression [...] vaut non seulement pour les “informations” ou “idées” accueillies avec faveur ou considérées comme inoffensives ou indifférentes, mais aussi pour celles qui heurtent, choquent ou inquiètent l'État ou une fraction quelconque de la population».

Dans le code, tant les entreprises des technologies de l'information que la Commission européenne soulignent également la nécessité de défendre le droit à la liberté d'expression.

L'évaluation de ce qui pourrait constituer un discours de haine illégal tient notamment compte de critères tels que la finalité et le contexte des propos. L'expression «Je vous hais» ne serait pas considérée comme un discours de haine illégal, à moins qu'elle ne soit associée à d'autres déclarations comprenant par exemple des menaces de violence et faisant référence à la race, à la couleur, à la religion, à l'ascendance et à l'origine nationale ou ethnique, entre autres.

Comment éviter que les pouvoirs publics n'utilisent le code de conduite de manière abusive?

Le code de conduite est un engagement volontaire pris par les entreprises des technologies de l'information qui y ont souscrit. Il ne s'agit pas d'un document juridique et il ne donne pas aux pouvoirs publics le droit de supprimer des contenus. Le code ne peut pas être utilisé pour pousser les entreprises des technologies de l'information à supprimer des contenus qui ne sont pas considérés comme des discours de haine illégaux, ou tout type de discours protégé par le droit à la liberté d'expression énoncé dans la charte des droits fondamentaux de l'Union européenne.

 

MEMO/19/806

Personnes de contact pour la presse:

Renseignements au public: Europe Direct par téléphone au 00 800 67 89 10 11 ou par courriel


Side Bar