Navigation path

Left navigation

Additional tools

Other available languages: EN FR

Europäische Kommission - Factsheet

Verhaltenskodex zur Bekämpfung illegaler Hetze im Internet: Fragen und Antworten zur vierten Bewertung

Brüssel, 4. Februar 2019

Verhaltenskodex zur Bekämpfung illegaler Hetze im Internet: Fragen und Antworten zur vierten Bewertung

Siehe IP/19/805

Was ist Sinn und Zweck des Verhaltenskodexes?

Die Europäische Kommission hat den Verhaltenskodex im Mai 2016 zusammen mit vier großen IT-Konzernen (Facebook, Microsoft, Twitter und YouTube) eingeführt, um gegen die Verbreitung rassistischer und fremdenfeindlicher Hetze im Internet anzugehen.

Der Kodex soll sicherstellen, dass Anträge auf Entfernung von Online-Inhalten rasch bearbeitet werden. Wenn Unternehmen aufgefordert werden, als illegal angesehene Inhalte von ihrer Online-Plattform zu entfernen, bewerten sie diese Aufforderung anhand ihrer Vorschriften und der Leitlinien der Branche sowie gegebenenfalls anhand der nationalen Gesetzgebung zur Umsetzung des EU-Unionsrechts zur Bekämpfung von Rassismus und Fremdenfeindlichkeit. Die Konzerne haben zugesagt, die den Großteil dieser Anträge innerhalb von 24 Stunden zu prüfen und den Inhalt gegebenenfalls zu entfernen, dabei aber stets den Grundsatz der Meinungsfreiheit zu wahren.

Bislang bekennen sich neun Unternehmen zu dem Kodex: Facebook, YouTube, Twitter, Microsoft, Instagram, Google+, Dailymotion, Snapchat und Webedia (jeuxvideo.com).

Wie bewertet die Kommission die Umsetzung des Verhaltenskodexes?

Die Umsetzung des Kodexes wird durch ein Netz zivilgesellschaftlicher Organisationen in verschiedenen EU-Mitgliedstaaten bewertet. Diese Organisationen testen anhand einer gemeinsam vereinbarten Methodik, wie die IT-Konzerne den Verhaltenskodex in der Praxis anwenden.

Dies geschieht, indem sie die IT-Unternehmen regelmäßig zur Entfernung bestimmter Inhalte von ihren Internet-Plattformen auffordern. Die beteiligten Organisationen dokumentieren, wie lange die IT-Konzerne brauchen, um die Aufforderung zu bewerten, wie sie auf die Aufforderung reagieren, sowie das Feedback, das sie von den Konzernen erhalten.

Wie lauten die zentralen Schlussfolgerungen der vierten Bewertungsrunde? 

  • Umgehende Reaktion auf illegale Hetze, die Nutzer den Plattformen melden

Die Ergebnisse der vierten Bewertungsrunde, in die auch Instagram und Google+ einbezogen waren, zeigen, dass rund 89 % der Meldungen binnen 24 Stunden beurteilt wurden. Alle IT-Unternehmen erfüllen die Zielvorgabe, die Mehrzahl der Meldungen binnen 24 Stunden zu prüfen. Facebook hat es sogar geschafft, 92,6 % der Meldungen innerhalb von 24 Stunden zu prüfen.

Im Schnitt entfernen IT-Konzerne fast 72 % aller Hetze aus dem Netz, die ihnen von den Nichtregierungsorganisationen und öffentlichen Stellen, die an der Bewertung teilnahmen, gemeldet wurde. Wenn 70 % bis 80 % der gemeldeten Inhalte tatsächlich aus dem Netz entfernt werden, gilt dies als zufriedenstellend, da nicht alle von Nutzern gemeldeten Inhalte als illegal zu werten sind. Zum Schutz der Meinungsfreiheit sollten ausschließlich illegale Inhalte aus dem Netz entfernt werden.

  • Konsequente und gründliche Beurteilung illegaler Hetze im Internet

Für schwerwiegendere Fälle mutmaßlicher illegaler Hetze liegt der durchschnittliche Anteil der entfernten Inhalte höher. Inhalte, die zu Mord an oder zu anderen Gewalttaten an Angehörigen bestimmter Gruppen aufrufen, werden in 85,5 % der Fälle entfernt. Ebenso werden Inhalte, die wahrscheinlich darauf abzielen, den Holocaust zu leugnen, in 75 % der Fälle aus dem Netz genommen. Inhalte mit herabwürdigenden, diffamierenden Begriffen oder Bildern zu bestimmten sozialen Gruppen oder Angehörigen dieser Gruppen werden in 58,5 % der Fälle entfernt. Dies legt nahe, dass die Unternehmen bei der Überprüfung die Meinungsfreiheit angemessen berücksichtigen und sie beim Entfernen von Inhalten nicht über das Ziel hinausschießen.

  • Größere Anstrengungen für mehr Transparenz und Feedback an die Nutzer erforderlich

Noch immer werden die Nutzer nicht vollständig über die Ergebnisse ihrer Meldungen informiert: Im Schnitt erhielten im Vergleich zum Vorjahr etwas weniger Meldungen ein Feedback (65,4 % gegenüber 68,9 %). Facebook ist die einzige Plattform, die allen Nutzern systematisch Feedback gibt, andere Plattformen erreichen dieses Niveau noch nicht (Twitter: 60,4 %, Instagram: 41,9 %, YouTube: 24,6 %).

  • Positive Botschaften zu den Themen Toleranz und Pluralismus fördern

Zivilgesellschaftliche Organisationen, nationale Behörden und IT-Plattformen sind Partnerschaften eingegangen, um Sensibilisierung und Aufklärung voranzubringen und positive Botschaften zu Toleranz und Vielfalt zu fördern. In den kommenden Monaten wird auf EU-Ebene eine großangelegte Online-Kampagne an den Start gebracht, die das Ergebnis der gemeinsamen Bemühungen von Unternehmen und zivilgesellschaftlichen Organisationen ist.

 

Tabelle mit wichtigen Ergebnissen:

Entfernte Inhalte

Erste Bewertung

(Dez. 2016)

Zweite Bewertung

(Mai 2017)

Dritte Bewertung

(Dez. 2017)

Vierte Bewertung

(Dez. 2018)

Facebook

28,3 %

66,5 %

79,8 %

82,4 %

YouTube

48,5 %

66,0 %

75,0 %

84,5 %

Twitter

19,1 %

37,4 %

45,7 %

42,5 %

Instagram

-

-

-

70,5 %

G+

-

-

-

76 %

Insgesamt

28,2 %

59,1 %

70,0 %

71,7 %

 

% der binnen 24 Stunden beurteilten Meldungen

Erste Bewertung

(Dez. 2016)

Zweite Bewertung

(Mai 2017)

Dritte Bewertung

(Dez. 2017)

Vierte Bewertung

(Dez. 2018)

Facebook

50,0 %

57,9 %

89,3 %

92,5 %

YouTube

60,8 %

42,6 %

62,7 %

80,9 %

Twitter

23,5 %

39,0 %

80,2 %

88,0 %

Instagram

 

 

 

77,7 %

G+

 

 

 

47,4 %

Insgesamt

40 %

51,4 %

81,6 %

88,9 %

 

Wurden die Zusagen des Verhaltenskodexes eingehalten?

Die Bewertungsergebnisse zeigen, dass die IT-Konzerne seit Unterzeichnung des Kodexes ihre Meldesysteme verbessert haben und es damit leichter geworden ist, Hetze zu melden. Zudem haben sie generell die Transparenz gegenüber Hinweisgebern und Nutzern gesteigert. Sie stellen mehr Personal für die Prüfung von Inhalten bereit und haben die Ressourcen für das Content-Management erhöht. Dies hat die Reaktion auf die Hinweise/Meldungen zu Hetze verbessert. Im Jahr 2016 wurden nur 40 % der Meldungen binnen 24 Stunden geprüft, während es mittlerweile 89 % sind. Die Entfernung von hetzerischen Inhalten stieg von 2016 bis 2018 von 28 % auf 72 %.

Außerdem haben die IT-Unternehmen ihre Zusammenarbeit mit zivilgesellschaftlichen Organisationen durch eigens geschaffene Partnerschaften und Programme sowie durch regelmäßige Trainings verstärkt, um ein besseres Verständnis der Meldesysteme sowie der Bedingungen und rechtlichen Besonderheiten in Zusammenhang mit Hetze in den Mitgliedstaaten zu gewährleisten.

Was die Transparenz gegenüber der Öffentlichkeit angeht, legten die IT-Unternehmen im Jahr 2016 ausschließlich Informationen zur Zahl der Ersuchen von Strafverfolgungsbehörden vor, jedoch kaum Einzelheiten zu illegaler Hetze als Grund für die Entfernung von Inhalten aus dem Internet. Inzwischen wird in den Berichten der IT-Konzerne zum Thema Transparenz die Entfernung von Online-Inhalten wegen Hetze gut und regelmäßig dargestellt. Dennoch gibt es noch Spielraum für weitere Fortschritte, beispielsweise durch eine detailliertere Aufschlüsselung.

Auch das Feedback an Nutzer, die Meldungen senden, kann noch besser werden. Zwar gibt es beträchtliche Unterschiede zwischen den einzelnen Unternehmen, dennoch erfolgt im Schnitt auf fast ein Drittel der Meldungen kein Feedback.

Weitere Informationen zu den bisherigen Fortschritten durch den Kodex sind hier zu finden.

Wie trägt der Verhaltenskodex zum Engagement der Kommission gegen illegale Inhalte bei?

Die Ergebnisse der Bewertung des Kodexes fließen in die umfassenderen Arbeiten der Kommission zur Rolle von Online-Plattformen bei der Verhinderung, Aufdeckung und Entfernung illegaler Inhalte ein.

Am 28. September 2018 nahm die Kommission eine Mitteilung an, in der den Plattformen Leitlinien für Melde- und Abhilfeverfahren an die Hand gegeben werden, um gegen illegale Online-Inhalte vorzugehen. In diesen Leitlinien wird hervorgehoben, wie wichtig die Bekämpfung von Hetze im Internet ist, und die Notwendigkeit unterstrichen, die Umsetzung des Verhaltenskodexes weiter voranzubringen.

Eine Empfehlung der Kommission für wirksame Maßnahmen im Umgang mit illegalen Online-Inhalten wurde am 1. März 2018 veröffentlicht. Diese befasst sich in einem allgemeinen Teil mit allen Arten von illegalen Inhalten und in einem spezifischen Teil mit besonderen Maßnahmen, die Plattformen zur Bekämpfung von terroristischen Inhalten ergreifen müssen. Unter den Vorgaben, die für alle Arten von illegalen Inhalten gelten, nennt die Empfehlung klarere „Melde- und Abhilfeverfahren“, effizientere Instrumente und proaktive Technologien, stärkere Sicherheitsvorkehrungen zum Schutz der Grundrechte, besondere Aufmerksamkeit für kleine Unternehmen und eine engere Zusammenarbeit mit den Behörden.

Wie wird illegale Online-Hetze definiert?

Illegale Online-Hetze ist im Unionsrecht im Rahmenbeschluss zur strafrechtlichen Bekämpfung bestimmter Formen und Ausdrucksweisen von Rassismus und Fremdenfeindlichkeit als öffentliche Aufstachelung zu Gewalt oder Hass gegen eine Gruppe oder einzelne Personen aufgrund von Kriterien wie Rasse, Hautfarbe, Religion, Abstammung oder nationale oder ethnische Herkunft definiert.

Ist der Verhaltenskodex die beste Lösung, um gegen illegale Hetze im Internet vorzugehen?

Der selbstregulierende Ansatz in Form eines Verhaltenskodexes hat sich als wirksames strategisches Instrument erwiesen, um rasche Fortschritte der Unternehmen angesichts einer enormen gesellschaftlichen Herausforderung zu erzielen. Eine Strategie allein reicht jedoch nicht aus, um die Verbreitung von Online-Hassbotschaften zu stoppen.

Der Verhaltenskodex setzt vor allem auf Melde- und Abhilfeverfahren und das Entfernen aus dem Netz und trägt so dazu bei, die „Symptome“ zu behandeln. Die Herausforderungen durch Online-Hetze müssen aber umfassend angegangen werden. Eine umgehende Reaktion auf Meldungen muss mit konkreten Maßnahmen gekoppelt werden, und zwar durch:

  • nationale Behörden, die ihre Kapazitäten zur Durchsetzung verbessern und eine wirksame Verfolgung sicherstellen sollten;
  • die IT-Plattformen, die weiter Fortschritte erzielen müssen;
  • eine Zivilgesellschaft, die positive Botschaften, Bildungsprogramme und Sensibilisierungskampagnen für Toleranz und Vielfalt fördert.

Wie sieht die Zusammenarbeit der Kommission mit den verschiedenen IT-Plattformen aus?

Der Verhaltenskodex gründet auf der Zusammenarbeit zwischen der Europäischen Kommission, IT-Plattformen, zivilgesellschaftlichen Organisationen und nationalen Behörden. Alle Interessenträger treffen sich regelmäßig im Rahmen der hochrangigen Gruppe zur Bekämpfung von Rassismus und Fremdenfeindlichkeit, um über Herausforderungen und Fortschritte zu diskutieren. Zusätzlich zu den regelmäßigen Bewertungsrunden steht die Kommission im dauerhaften Dialog mit den Plattformen, um Fortschritte bei sämtlichen Zusagen des Kodexes anzustoßen.

Außerdem werden Workshops und Trainings mit Unternehmen und anderen einschlägigen Interessenträgern veranstaltet. So befassten sich beispielsweise die Teilnehmer eines im November 2017 gemeinsam mit Google in Dublin organisierten Workshops mit der Verbesserung der Qualität von Meldungen vertrauenswürdiger Hinweisgeber, um eine effektivere Reaktion der Inhaltsprüfer der Unternehmen zu gewährleisten. An diesen Workshop schlossen sich ähnliche Veranstaltungen an, die im Juni 2018 und im Januar 2019 mit Facebook und Twitter organisiert wurden.

Führt der Verhaltenskodex zur Zensur?

Nein. Der Verhaltenskodex zielt darauf ab, gegen illegale Hetze vorzugehen, die online verbreitet wird. Online und offline gelten dieselben Regeln. Inhalte, die offline illegal sind, sollten im Internet nicht legal bleiben dürfen.

In dem Kodex betonen sowohl die IT-Unternehmen als auch die Europäische Kommission zudem die Notwendigkeit, das Recht der freien Meinungsäußerung zu verteidigen. Der Kodex kann nicht herangezogen werden, um IT-Unternehmen zur Löschung von Inhalten zu zwingen, die nicht eindeutig illegal sind oder bei denen es sich um Äußerungen handelt, die durch das Recht auf freie Meinungsäußerung gemäß der Grundrechtecharta geschützt sind.

Zudem ergab eine Eurobarometer-Umfrage aus dem Jahr 2016, dass 75 % der Nutzer, die Online-Debatten verfolgt oder sich an ihnen beteiligt hatten, Zeugen von Beschimpfungen, Drohungen oder Hassbotschaften wurden, die sich gegen Journalisten richteten. Fast die Hälfte dieser Befragten gab an, dass dies sie davon abhielt, selbst im Internet mitzudiskutieren. Diese Ergebnisse machen deutlich, dass illegale Online-Hetze nachhaltig aus den sozialen Medien entfernt werden sollte, da dadurch das Recht auf freie Meinungsäußerung eingeschränkt werden könnte.

Ist es nicht Sache der Gerichte zu entscheiden, was illegal ist?

Ja, für die Rechtsauslegung sind und bleiben die nationalen Gerichte verantwortlich.

Zugleich jedoch müssen IT-Konzerne im Einklang mit den nationalen Gesetzen handeln, insbesondere jenen zur Umsetzung des Rahmenbeschlusses zur Bekämpfung von Rassismus und Fremdenfeindlichkeit und der Richtlinie über den elektronischen Geschäftsverkehr aus dem Jahr 2000. Wenn die IT-Konzerne eine stichhaltige Warnung wegen eines Online-Inhalts erhalten, der mutmaßlich illegale Hetze enthält, müssen sie den Inhalt prüfen – nicht nur anhand ihrer Vorschriften und der Leitlinien der Branche, sondern gegebenenfalls auch auf Grundlage des geltenden nationalen Rechts (einschließlich des Rechts zur Umsetzung von Unionsrecht), was mit dem Grundsatz der freien Meinungsäußerung vollständig in Einklang steht.

Sind sämtliche Hass-Botschaften als illegale Hetze zu werten – beispielsweise „ich hasse dich“?  

Beleidigende oder umstrittene Äußerungen können durchaus legal sein. Dem Europäischen Gerichtshof für Menschenrechte zufolge gilt „[d]as Recht der freien Meinungsäußerung … nicht nur für die günstig aufgenommenen oder als unschädlich oder unwichtig angesehenen ‚Informationen‘ oder ‚Ideen‘, sondern auch für die, welche den Staat oder irgendeinen Teil der Bevölkerung verletzen, schockieren oder beunruhigen“.

In dem Kodex betonen sowohl die IT-Unternehmen als auch die Europäische Kommission zudem die Notwendigkeit, das Recht der freien Meinungsäußerung zu verteidigen.

Um zu beurteilen, wann es sich um illegale Hetze handelt, müssen auch Kriterien wie der Zweck und der Kontext der Äußerung herangezogen werden. Die Äußerung „ich hasse dich“ würde nicht als illegale Hetze gelten, es sei denn, sie würde mit anderen Äußerungen kombiniert – zum Beispiel der Androhung von Gewalt oder Verweisen etwa auf Rasse, Religion, Abstammung und nationale oder ethnische Herkunft.

Wie können wir Regierungen am Missbrauch des Verhaltenskodexes hindern?

Der Verhaltenskodex ist eine freiwillige Zusage der IT-Unternehmen, die ihn unterzeichnet haben. Er ist kein rechtverbindliches Dokument und berechtigt Regierungen nicht dazu, Inhalte aus dem Netz zu nehmen. Der Kodex kann nicht dazu genutzt werden, um diese IT-Konzerne zum Entfernen von Inhalten zu zwingen, die nicht als illegale Online-Hetze zu werten sind oder bei denen es sich um Äußerungen handelt, die nach der EU-Grundrechtecharta durch das Recht auf freie Meinungsäußerung geschützt sind.

 

MEMO/19/806

Kontakt für die Medien:

Kontakt für die Öffentlichkeit: Europe Direct – telefonisch unter 00 800 67 89 10 11 oder per E-Mail


Side Bar