Facebook: Netzdg Transparenzbericht - Meta Platforms Ireland LimitedDublin

Published date31 Enero 2023
SectionVerschiedene Bekanntmachungen
IssuerMeta Platforms Ireland LimitedDublin
Meta Platforms Ireland Limited
NetzDG Transparenzbericht
Januar 2023
1.

ALLGEMEINE AUSFÜHRUNGEN

Allgemeine Ausführungen dazu, welche Anstrengungen der Anbieter des sozialen Netzwerks unternimmt, um strafbare Handlungen auf den Plattformen zu unterbinden.

Meta Platforms Ireland Limited, welche das soziale Netzwerk Facebook für Nutzer*innen in Deutschland bereitstellt, möchte eine sichere Plattform bieten, der die Menschen vertrauen und auf der sie sich frei äußern können. Dabei erlauben wir Nutzer*innen jedoch nicht, Inhalte zu posten, die rechtswidrig sind oder zu kriminellem Verhalten anregen. Auch jegliche Art von Bullying oder Belästigung ist nicht gestattet. Um diese Balance zu halten, nutzen wir einen vielschichtigen Ansatz zur Bekämpfung potenziell strafbarer Handlungen bzw. schädlicher Aktivitäten auf der Facebook-Plattform.

Zum einen haben wir weltweit gültige Gemeinschaftsstandards definiert, die festlegen, was auf Facebook zulässig ist und was nicht, und die in vielen Fällen abdecken, was gemäß deutschem Recht rechtswidrig ist. Diese Standards gelten für Inhalte auf der ganzen Welt und sind von entscheidender Bedeutung für den Schutz der freien Meinungsäußerung sowie der persönlichen Sicherheit auf Facebook. Unsere Gemeinschaftsstandards verbieten eine Vielzahl von anstößigen bzw. schädlichen Inhalten, zum Beispiel Inhalte, die:

gewalttätiges und kriminelles Verhalten fördern,

die Sicherheit Anderer bedrohen,

als Hassrede gelten,

als drastische Gewaltdarstellung gelten,

als Spam eingestuft werden,

als Mobbing oder Belästigung eingestuft werden.

Die Gemeinschaftsstandards1 werden durch ein globales Team erstellt, dessen Mitglieder eine Vielzahl unterschiedlicher Fachgebiete abdecken. Dazu gehören Expert*innen in den Bereichen Kindersicherheit, Hassrede und Terrorismus. Dieses Team wird regelmäßig von externen Expert*innen und Organisationen beraten, um eine Balance aus unterschiedlichen Sichtweisen zu den Themen Meinungsfreiheit und Sicherheit zu wahren und die Auswirkungen unserer Richtlinien auf verschiedene Personengruppen weltweit besser zu verstehen. Unsere Prüfer*innen setzen diese Standards mithilfe umfassender Richtlinien durch, die sicherstellen, dass die Entscheidungen so konsistent wie möglich getroffen werden. Dabei ist zu beachten, dass eine Gemeinschaftsstandards-Meldung nicht dazu führt, dass wir den Inhalt einer rechtlichen Prüfung unterziehen. Wir prüfen entsprechend der Gemeinschaftsstandards-Meldung eine Verletzung unserer Gemeinschaftsstandards. Wir stellen separate Meldemechanismen bereit, mit denen Nutzer*innen Inhalte melden können, die ihrer Ansicht nach gegen nationales Recht verstoßen (siehe dazu nachfolgend im Detail).

Angemeldete Facebook-Nutzer*innen können Verstöße gegen die Gemeinschaftsstandards auf verschiedene Arten melden, u. a. über ein Auswahlmenü, das zu jedem Inhalt angezeigt wird. Wir prüfen Inhalte (automatisiert oder manuell), die über diese Tools gemeldet werden, um festzustellen, ob die gemeldeten Inhalte gegen unsere Gemeinschaftsstandards verstoßen. Wenn dies der Fall ist, entfernen wir den gemeldeten Inhalt. Darüber hinaus setzen wir Technologie ein, um dabei zu helfen, potenziell gegen die Gemeinschaftsstandards verstoßende Inhalte zu erkennen, bevor Menschen diese sehen und uns melden (siehe Abschnitt 2 für Details hierzu).

Zum anderen stellen wir verschiedene Möglichkeiten bereit, mit denen Personen Inhalte melden können, die nach ihrer Ansicht gegen nationales Recht verstoßen. Wenn uns ein Inhalt auf Facebook wegen Verstoßes gegen deutsches Recht gemeldet wird, er aber nicht gegen unsere Gemeinschaftsstandards verstößt, können wir den Zugang zu dem Inhalt in Deutschland sperren. Personen in Deutschland können verschiedene Kanäle zur Meldung vermeintlicher Verstöße gegen deutsches Recht nutzen, so zum Beispiel:

Das NetzDG-Beschwerdeformular2 – Mithilfe dieses Formulars können Personen in Deutschland Inhalte melden, die nach ihrer Ansicht gegen eine oder mehrere der im NetzDG aufgeführten Bestimmungen des deutschen Strafgesetzbuchs verstoßen (für weitere Informationen zu diesem Formular siehe Abschnitt 3 dieses Transparenzberichts).

Die Meldeformulare für Verletzungen geistiger Eigentumsrechte3 – Diese Formulare erlauben es Rechteinhabern und deren autorisierten Vertretern, Inhalte zu melden, die nach ihrer Ansicht Urheberrechte oder Markenrechte verletzen.

Das Formular zum Melden von Verleumdung4 – Mit diesem Formular können Betroffene und bestimmte autorisierte Vertreter Inhalte melden, die ihrer Ansicht nach diffamierenden Charakter haben. Dies umfasst auch Inhalte, die unwahre Tatsachenbehauptungen darstellen, welche zu einer Rufschädigung führen. Wenn Personen Deutschland als das Land auswählen, für das sie Rechte geltend machen wollen, werden sie auf die Option hingewiesen, ihre Beschwerde stattdessen über unser NetzDG-Beschwerdeformular zu übermitteln, wenn es sich ihrer Ansicht nach bei dem Inhalt um Beleidigung, üble Nachrede oder Verleumdung im strafrechtlichen Sinne handelt.

Das Antragsformular zur Entfernung von Inhalten aufgrund von Rechtsverstößen5 – Mit diesem Formular können Personen in den Mitgliedstaaten der Europäischen Union Inhalte melden, die ihrer Ansicht nach ihre Persönlichkeitsrechte verletzen oder gegen national geltendes Recht verstoßen. Wenn Personen Deutschland als das Land auswählen, für das sie Rechte geltend machen wollen, erhalten sie zunächst die Möglichkeit, eine Beschwerde über unser NetzDG-Beschwerdeformular einzureichen. Entscheiden sie sich dagegen, gelangen sie zu den übrigen oben genannten Formularen sowie zu einem separaten Formular für das Recht auf Datenschutz/Löschung. Zudem bietet das Formular Personen die Möglichkeit, Inhalte zu melden, die ihrer Ansicht nach gegen andere Gesetze verstoßen und nicht von den oben genannten Kategorien abgedeckt sind.

2.

VERFAHREN ZUR AUTOMATISIERTEN ERKENNUNG VON INHALTEN, DIE ENTFERNT ODER GESPERRT WERDEN SOLLEN

Art, Grundzüge der Funktionsweise und Reichweite von gegebenenfalls eingesetzten Verfahren zur automatisierten Erkennung von Inhalten, die entfernt oder gesperrt werden sollen, einschließlich allgemeiner Angaben zu verwendeten Trainingsdaten und zu der Überprüfung der Ergebnisse dieser Verfahren durch den Anbieter, sowie Angaben darüber, inwieweit Kreise der Wissenschaft und Forschung bei der Auswertung dieser Verfahren unterstützt werden und diesen zu diesem Zweck Zugang zu Informationen des Anbieters gewährt wurde.

2A. ART, FUNKTIONSWEISE UND REICHWEITE DER AUTOMATISIERTEN ERKENNUNG VON INHALTEN, DIE ENTFERNT ODER GESPERRT WERDEN SOLLEN

Zur Durchsetzung unserer Gemeinschaftsstandards setzen wir eine Kombination aus menschlicher Prüfung und Technologie ein (siehe schon Abschnitt 1). Jeden Tag entfernen wir Millionen von unzulässigen Inhalten und Konten von Facebook und Instagram. In den meisten Fällen geschieht dies automatisch mithilfe von Technologie wie künstlicher Intelligenz, die im Hintergrund arbeitet, um Inhalte zu erkennen und zu entfernen, die gegen die Gemeinschaftsstandards verstoßen. In anderen Fällen wählt unsere Technologie Inhalte für eine menschliche Überprüfung aus. Unsere Review-Teams prüfen eine Mischung aus den in Abschnitt 1 beschriebenen Nutzer*innen-Meldungen und Beiträgen, die von unseren Systemen künstlicher Intelligenz identifiziert wurden. Ferner unterstützt unsere Technologie die Review-Teams auch, die kritischsten zu prüfenden Inhalte nach Schweregrad, Viralität und Wahrscheinlichkeit eines Verstoßes zu priorisieren. Unsere Prüfsysteme verwenden Technologien, um Inhalte mit hohem Schweregrad, die Schaden abseits des Internets anrichten können (etwa Beiträge im Zusammenhang mit Terrorismus und Selbstmord), sowie virale Inhalte, die sich schnell verbreiten und eine große Reichweite haben könnten, zu priorisieren, um so viel Schaden wie möglich zu verhindern.

Unsere Technologie ist darauf ausgerichtet, Verstöße gegen unsere Gemeinschaftsstandards zu erkennen. Sie ist nicht darauf ausgerichtet, rechtswidrige Inhalte im Sinne von § 1 Abs. 3 NetzDG unmittelbar zu erkennen, auch wenn es selbstverständlich Überschneidungen zwischen unzulässigen Inhalten im Sinne unserer Gemeinschaftsstandards und rechtswidrigen Inhalten im Sinne von § 1 Abs. 3 NetzDG gibt (z. B. im Bereich der Hassrede). Zur Erkennung von Verstößen gegen die Gemeinschaftsstandards werden in erster Linie drei Techniken eingesetzt.

Erstens begrenzen wir die Geschwindigkeit, mit der Konten Aktionen, inklusive des Postens von Beiträgen, auf unserer Plattform durchführen können (Rate Limits), um den Einsatz von Bots zu verhindern.

Zweitens verwenden wir eine Abgleichtechnologie, die identische oder nahezu identische Kopien von URLs, Text, Bildern, Audio- und Videobeiträgen identifiziert, die wir zuvor als Verstoß gegen unsere Gemeinschaftsstandards identifiziert haben. Diese Abgleichtechnologie kann auch dann funktionieren, wenn der zu untersuchende Inhalt geringfügige Unterschiede zum ursprünglichen Inhalt aufweist. Wenn sich aus dem Abgleich ergibt, dass ein Inhalt identisch oder nahezu identisch mit einem vorigen Verstoß ist, entfernen wir den Inhalt typischerweise. Diese Technologie wird manchmal als Content Hashing oder Content Digital Fingerprinting bezeichnet.

Schließlich verwenden wir auch künstliche Intelligenz im engeren Sinne (d. h. maschinelles Lernen (Machine Learning) und regelbasierte Systeme, im Folgenden: künstliche Intelligenz, KI), und zwar auf zweierlei Weise: Wie bei der Abgleichtechnologie entfernt die künstliche Intelligenz einen Inhalt typischerweise, wenn sie sich sicher genug ist, dass er gegen unsere Gemeinschaftsstandards verstößt. Wir verwenden künstliche Intelligenz außerdem, um auf der Grundlage von Schweregrad...

Um weiterzulesen

FORDERN SIE IHR PROBEABO AN

VLEX uses login cookies to provide you with a better browsing experience. If you click on 'Accept' or continue browsing this site we consider that you accept our cookie policy. ACCEPT