Ein wichtiger Schritt zum besseren Schutz unserer Community in Europa

10. November 2020

Aktualisiert am 02. September 2021: Wir sind immer auf der Suche nach neuen Möglichkeiten, wie wir unsere Community noch besser unterstützen können. Deshalb treffen wir uns regelmäßig mit Mitgliedern unserer Suicide and Self Injury Advisory Group. Schon seit einiger Zeit beraten uns diese Expert*innen dazu, wie man am besten mit Inhalten umgeht, die zwar nicht gegen unsere Richtlinien verstoßen, die aber Suizid, Tod oder Depressionen möglicherweise grafisch darstellen oder verharmlosen. Zusammen mit den Expert*innen sind wir uns einig, dass es wichtig ist, solche Posts zuzulassen. Nutzer*innen sollen über ihre Gefühle sprechen können, Freund*innen und Familienmitglieder sollen die Möglichkeit haben, auf Betroffene zuzugehen. Gleichzeitig möchten wir andere Nutzer*innen davor schützen, Inhalte zu entdecken, die für sie möglicherweise verstörend sind. Aus diesem Grund entfernen wir diese Inhalte nicht, wir machen sie aber weniger sichtbar. In Bereichen wie Explore möchten wir solche Posts beispielsweise nicht empfehlen. Damit gelingt uns hoffentlich der Spagat zwischen Unterstützung und Schutz. Um neue Erkenntnisse im Forschungsbereich Suizidprävention berücksichtigen zu können, besprechen wir uns weiterhin mit Expert*innen aus aller Welt.

------------

Wir geben unser Bestes, um die Menschen auf Instagram zu schützen. Wenn es um so komplexe Themen wie psychische Gesundheit, Suizid und Selbstverletzung geht, arbeiten wir eng mit Expert*innen zusammen. Nur so können wir den betroffenen Menschen wirklich Unterstützung bieten. Wir bei Instagram – mich eingeschlossen – nehmen diese Probleme sehr ernst. In den letzten Jahren haben wir bereits große Fortschritte gemacht. Heute führen wir nun auch in Europa weitere technische Lösungen ein, die unsere Arbeit voranbringen sollen. Unser Einsatz in diesem Bereich geht jedoch immer weiter und wir sind stets auf der Suche nach weiteren Möglichkeiten, um zu helfen.


Uns ist bewusst, dass es bei den betroffenen Personen um sehr persönliche Probleme geht. Die Herausforderungen sind dabei komplex und verändern sich über die Zeit. Deswegen aktualisieren wir immer wieder unsere Richtlinien und Produkte. Nur so können wir unserer Community den bestmöglichen Support bieten. Suizid oder selbstverletzendes Verhalten auf Instagram zu befürworten oder dazu aufzurufen, war schon immer streng untersagt. Letztes Jahr haben wir unsere Richtlinien zusätzlich dahingehend verschärft, dass Inhalte mit explizitem Suizidbezug oder einer Darstellung von Selbstverletzung ausnahmslos entfernt werden. Außerdem haben wir unsere Richtlinien auf fiktive Darstellungen der Thematik ausgeweitet und untersagen Illustrationen, Memes und andere Bilder, die Hilfsmittel oder Methoden für Selbsttötung oder Selbstverletzung abbilden.


Aber es reicht nicht aus, diese komplizierte Problematik nur mithilfe von Richtlinien und Produkten anzugehen. Unserer Meinung nach ist es wichtig, betroffenen Menschen Hilfe und Unterstützung anzubieten. Wenn jemand nach Konten oder Hashtags im Zusammenhang mit Suizid oder Selbstverletzung sucht, bieten wir Unterstützung an und leiten diese Personen an Hilfsorganisationen vor Ort weiter. Darüber hinaus haben wir zusammen mit den Samaritans, einer britischen Seelsorge-Organisation zur Suizidprävention, Branchenrichtlinien erarbeitet. Diese sollen Plattformen wie Instagram dabei helfen, gegen schädliche Inhalte vorzugehen und den Betroffenen aber gleichzeitig wichtige Hilfe anzubieten.


Mithilfe unserer Technologie suchen und entfernen wir proaktiv Inhalte mit Suizidbezug oder über selbstverletzendes Verhalten. Unser System findet Beiträge, die von Suizid oder Selbstverletzung handeln, und leitet sie an unsere Mitarbeiter*innen weiter, die die Beiträge überprüfen und anschließend über das beste Vorgehen entscheiden. Hierzu kann gehören, dass wir den Inhalt entfernen, dem*der Verfasser*in des Beitrags lokale Hilfsorganisationen empfehlen oder im Ernstfall auch direkt die Notfalldienste anrufen. Zwischen April und Juni 2020 wurden über 90 % der Inhalte zum Thema Suizid und Selbstverletzung von unserer eigenen Technologie gefunden, ohne dass dafür die Meldung von einem*einer Nutzer*in nötig war. Unser Ziel ist, bei der proaktiven Auffindung von solchen Inhalten so nah wie möglich an 100 % zu kommen.


Bisher konnten wir diese Technologie zum Auffinden von Inhalten, die mit Selbsttötung oder Selbstverletzung zu tun haben, nur außerhalb der Europäischen Union einsetzen. Deshalb war es in Europa für uns bisher schwer, solchen Content proaktiv zu finden und den Betroffenen zu helfen. Umso mehr freue ich mich, dass wir ab heute einen Teil dieser Technologie auch in der EU einsetzen können – und zwar auf Facebook und Instagram. Jetzt können wir effektiver nach Beiträgen suchen, die gegen unsere Richtlinien bezüglich Suizid und Selbstverletzung verstoßen. Nur so lässt sich die Sichtbarkeit solcher Posts einschränken, indem wir sie automatisch aus Bereichen wie beispielsweise Explore entfernen. Wenn unser System ermittelt, dass ein Beitrag mit sehr hoher Wahrscheinlichkeit nicht unseren Richtlinien entspricht, können wir diesen jetzt auch automatisch komplett entfernen.


Dies ist ein wichtiger Schritt, um unsere Nutzer*innen in der EU besser zu schützen und Hilfe anzubieten. Aber wir möchten noch viel mehr tun. Der nächste Schritt für uns wäre, mit unserer Technologie solchen schädlichen Content nicht nur aufzuspüren und weniger sichtbar zu machen. Vielmehr wollen wir diese Inhalte an unsere Review-Mitarbeiter*innen senden, die Hilfsmaßnahmen einleiten können – so wie wir das überall sonst auf der Welt schon tun. Dass uns diese Möglichkeit in der EU nicht zur Verfügung steht, erschwert es uns, die Betroffenen an Seelsorge- und Notfalldienste vor Ort zu verweisen. In den USA wurden beispielsweise 80 % der Konten, deren Nutzer*innen wir zwischen August und Oktober an lokale Seelsorge- und Notfalldienste verwiesen haben, mithilfe unserer proaktiven Systeme entdeckt. Derzeit beraten wir mit verschiedenen Behörden und Regierungen darüber, wie wir diese Technologie unter Einhaltung der Datenschutzauflagen auch innerhalb der EU einsetzen könnten. Wir sind optimistisch, dass wir bald eine zufriedenstellende Lösung für alle finden können. Das Thema ist einfach zu wichtig, um Möglichkeiten zur Hilfe unversucht zu lassen.


Zeitstrahl unserer Maßnahmen gegen Inhalte mit Suizid-/Selbstverletzungsbezug auf Instagram

  • Dezember 2016: Es werden neue Tools eingeführt, mit denen man Posts über Selbstverletzung anonym melden kann. Wir fangen außerdem an, betroffene Nutzer*innen an Seelsorge-Organisationen zu verweisen.
  • März 2017: Es werden Suizidpräventions-Tools in Facebook Live integriert, mit denen Freund*innen und Familienmitglieder gefährdete Personen einfacher melden und in Echtzeit kontaktieren können.
  • November 2017: Es wird eine Technologie außerhalb der USA (außer in Europa) eingeführt, die bei der Suche nach Nutzer*innen mit Suizidgedanken hilft. Diese ist unter anderem auf Facebook Live verfügbar. Mithilfe künstlicher Intelligenz werden gemeldete Posts in der Prüfung nun priorisiert. Das hilft uns dabei, Nutzer*innen so schnell wie möglich Hilfe zu senden und Notfalldienste zu verständigen.
  • September 2018: Zusammen mit Jugendlichen, die Instagram nutzen, präsentieren wir einen Leitfaden für Eltern.
  • Februar 2019: Wir beraten uns regelmäßig mit Expert*innen aus aller Welt zum Thema Suizid und Selbstverletzung. Diese Gespräche drehen sich um die komplexen Probleme im Kontext von Selbsttötung oder Selbstverletzung und liefern uns regelmäßiges Expert*innen-Feedback zu unseren Maßnahmen.
  • Februar 2019: Wir verschärfen unsere Richtlinien so, dass sämtlicher grafischer Content zum Thema Suizid und Selbstverletzung gesperrt wird, auch wenn der*die Nutzer*in damit auf persönliche Probleme aufmerksam machen möchte. Wir erschweren zusätzlich die Suche nach solchen Inhalten, blockieren zugehörige Hashtags und lassen Content, in dem Nutzer*innen ihren Kampf gegen Suizidgedanken und Selbstverletzung thematisieren, auf sensible Inhalte überprüfen. Auf diese Weise können wir noch mehr Menschen, die solche Inhalte posten oder danach suchen, an verfügbare Hilfsangebote verweisen.
  • Oktober 2019: Wir erweitern unsere Richtlinien und sperren auch fiktive Inhalte zu Selbstverletzung oder Suizid, wie Memes und Illustrationen, sowie Inhalte zu Methoden oder Hilfsmitteln.
  • September 2020: Wir arbeiten mit den Samaritans zusammen und unterstützen sie bei ihren neuen Richtlinien zum verantwortungsvollen Umgang mit Online-Content über Selbstverletzung und Selbsttötung.
  • Oktober 2020: Wenn Nutzer*innen nach Begriffen zum Thema Suizid oder Selbstverletzung suchen, zeigen wir ganz oben in den Suchergebnissen einen Hinweis an. In diesem Hinweis bieten wir Hilfe an und machen auf lokale Hilfsorganisationen aufmerksam.
  • November 2020: Auch in der EU können wir nun Technologie nutzen, um proaktiv mehr schädliche Inhalte mit Suizidbezug oder zum Thema Selbstverletzung zu finden und weniger sichtbar zu machen.
  • August 2021: Nach Rücksprache mit Expert*innen führen wir eine technologische Lösung ein, die Content aufspürt, der Suizid, Tod oder Depressionen grafisch darstellt oder verharmlost. Anschließend werden solche Inhalte schwerer auffindbar gemacht. Wir entfernen Inhalte wie diese also nicht, aber wir sorgen dafür, dass sie in Bereichen wie Explore weniger sichtbar sind.

Unser Fortschritt in Zahlen


Unsere Community soll uns daran messen können, wie gut wir unsere Richtlinien und Maßnahmen bezüglich schädlichen Inhalten umsetzen. Darum veröffentlichen wir regelmäßig Berichte zur Durchsetzung der Gemeinschaftsstandards und machen öffentlich, gegen wie viele schädliche Inhalte wir weltweit Maßnahmen ergriffen haben und wie viele solcher Inhalte wir entfernen konnten, bevor sie gemeldet wurden. Folgende Übersicht zeigt, welche Fortschritte wir bisher gemacht haben bei unserem Vorgehen gegen Inhalte zum Thema Suizid und Selbstverletzung.

MEHR ZUM THEMA

Weitere Ankündigungen aus dem Bereich Instagram