Adam Mosseri, Head of Instagram
10. November 2020
Aktualisiert am 14. April 2022: Suizid und Selbstverletzung sind komplexe Themen und können verheerende Folgen haben. Wir geben unser Bestes, um unsere Community zu schützen. Deshalb freue ich mich, dass wir heute einen weiteren wichtigen Schritt hin zu mehr Sicherheit der Menschen in unseren Apps ankündigen können. Dank unserer laufenden Gespräche mit dem britischen Ministerium für Gesundheit und Soziales und der britischen Datenschutzbehörde kann unsere proaktive Erkennungstechnologie nun Inhalte mit potenziellem Bezug zu Suizid und Selbstverletzung im Vereinigten Königreich an unser Review-Team senden. Dies geschieht bereits in allen anderen Ländern außerhalb der EU. Unser Team kann dann den Inhalt überprüfen und die entsprechenden Maßnahmen ergreifen, z. B. den Inhalt entfernen, die betroffene Person an lokale Hilfsorganisationen verweisen oder, falls nötig, die Notfalldienste kontaktieren.
Wir nutzen diese Technologie im Vereinigten Königreich und in der EU bereits, um potenzielle Inhalte zu Suizid und Selbstverletzung zu erkennen und sie automatisch weniger sichtbar zu machen, indem wir zum Beispiel verhindern, dass sie empfohlen werden. Wenn die Technologie sehr sicher ist, dass der Inhalt gegen unsere Regeln verstößt, kann sie ihn automatisch entfernen. Aufgrund langwieriger Gespräche mit den Regierungen und Aufsichtsbehörden im Vereinigten Königreich und in der EU über die Funktionsweise der Technologie und die differenzierten Nuancen von Inhalten zu Suizid und Selbstverletzung konnten wir solche Inhalte jedoch bisher nicht an unser Review-Team weiterleiten, um Maßnahmen zu ergreifen.
Dass wir nun zusätzlich zur Technologie unser Review-Team einsetzen können, wird im Vereinigten Königreich eine große Wirkung haben. Dadurch sind wir nicht nur in der Lage, mehr potenziell gefährliche Inhalte von Facebook und Instagram zu entfernen, sondern können auch Menschen, die solche Inhalte teilen, zum richtigen Zeitpunkt an Hilfsorganisationen oder Notfalldienste verweisen.
Wir freuen uns darauf, unsere Gespräche auch mit den zuständigen EU-Behörden fortzusetzen, und hoffen, dass wir dort bald ähnliche Fortschritte für unsere Community erzielen können.
Aktualisiert am 30. September 2021: Die Informationen in diesem Artikel sind möglicherweise veraltet. Aktuelle Informationen zu unseren Detektionstechnologien für Inhalte mit Suizid- und Selbstverletzungsbezug findest du im Safety Center. Wie im Safety Center beschrieben, dienen unsere Algorithmen dazu, Inhalte mit potenziellem Suizid- oder Selbstverletzungsbezug zu identifizieren. Sie können keine psychologischen oder anderen Probleme diagnostizieren oder behandeln.
Aktualisiert am 2. September 2021: Wir sind immer noch auf der Suche nach neuen Möglichkeiten, wie wir unsere Community noch besser unterstützen können. Deshalb treffen wir uns regelmäßig mit Mitgliedern unserer Suicide and Self Injury Advisory Group. Schon seit einiger Zeit beraten uns diese Expert*innen dazu, wie man am besten mit Inhalten umgeht, die zwar nicht gegen unsere Richtlinien verstoßen, die aber Suizid, Tod oder Depressionen möglicherweise grafisch darstellen oder verharmlosen. Expert*innen sind sich einig, dass es wichtig ist, solche Posts zuzulassen. Nutzer*innen sollen über ihre Gefühle sprechen können, Freund*innen und Familienmitglieder sollen die Möglichkeit haben, auf Betroffene zuzugehen. Gleichzeitig möchten wir andere Nutzer*innen davor schützen, Inhalte zu entdecken, die für sie möglicherweise verstörend sind. Aus diesem Grund entfernen wir diese Inhalte nicht, wir machen sie aber weniger sichtbar. In Bereichen wie Explore möchten wir solche Posts beispielsweise nicht empfehlen. Damit gelingt uns hoffentlich der Spagat zwischen Unterstützung und Schutz. Um neue Erkenntnisse im Forschungsbereich Suizidprävention berücksichtigen zu können, besprechen wir uns weiterhin mit Expert*innen aus aller Welt.
Wir geben unser Bestes, um die Menschen auf Instagram zu schützen. Wenn es um so komplexe Themen wie psychische Gesundheit, Suizid und Selbstverletzung geht, arbeiten wir eng mit Expert*innen zusammen. Nur so können wir den betroffenen Menschen wirklich Unterstützung bieten. Wir bei Instagram – mich eingeschlossen – nehmen diese Probleme sehr ernst. In den letzten Jahren haben wir bereits große Fortschritte gemacht. Heute führen wir nun auch in Europa weitere technische Lösungen ein, die unsere Arbeit voranbringen sollen. Unser Einsatz in diesem Bereich geht jedoch immer weiter und wir sind stets auf der Suche nach weiteren Möglichkeiten, um zu helfen.
Uns ist bewusst, dass es bei den betroffenen Personen um sehr persönliche Probleme geht. Die Herausforderungen sind dabei komplex und verändern sich über Zeit. Deswegen aktualisieren wir immer wieder unsere Richtlinien und Produkte. Nur so können wir unserer Community den bestmöglichen Support bieten. Suizid oder selbstverletzendes Verhalten auf Instagram zu befürworten oder dazu aufzurufen, war schon immer streng untersagt. Letztes Jahr haben wir unsere Richtlinien zusätzlich dahingehend verschärft, dass Inhalte mit explizitem Suizidbezug oder einer Darstellung von Selbstverletzung ausnahmslos entfernt werden. Außerdem haben wir unsere Richtlinien auf fiktive Darstellungen der Thematik ausgeweitet und untersagen Illustrationen, Memes und andere Bilder, die Hilfsmittel oder Methoden für Selbstmord oder Selbstverletzung abbilden.
Aber es reicht nicht aus, diese komplizierte Problematik nur mithilfe von Richtlinien und Produkten anzugehen. Unserer Meinung nach ist es wichtig, betroffenen Menschen Hilfe und Unterstützung anzubieten. Wenn jemand nach Konten oder Hashtags im Zusammenhang mit Suizid oder Selbstverletzung sucht, bieten wir Unterstützung an und leiten diese Personen an Hilfsorganisationen vor Ort weiter. Darüber hinaus haben wir zusammen mit Samaritans, einer britischen Seelsorge-Organisation zur Suizidprävention, Branchenrichtlinien erarbeitet. Diese sollen Plattformen wie Instagram dabei helfen, gegen schädliche Inhalte vorzugehen und den Betroffenen aber gleichzeitig wichtige Hilfe anzubieten.
Mithilfe unserer Technologie suchen und entfernen wir proaktiv Inhalte mit Suizidbezug oder über selbstverletzendes Verhalten. Unser System findet Beiträge, die von Suizid oder Selbstverletzung handeln, und leitet sie an unsere Mitarbeitenden weiter, welche die Beiträge überprüfen und anschließend über das beste Vorgehen entscheiden. Hierzu kann gehören, dass wir den Inhalt entfernen, dem*der Verfasser*in des Beitrags lokale Hilfsorganisationen empfehlen oder im Ernstfall auch direkt die Notfalldienste anrufen. Zwischen April und Juni 2020 wurden über 90 % der Inhalte zum Thema Suizid und Selbstverletzung von unserer eigenen Technologie gefunden, ohne dass dafür die Meldung von Nutzer*innen nötig war. Unser Ziel ist, bei der proaktiven Auffindung von solchen Inhalten so nah wie möglich an 100 % zu kommen.
Bisher konnten wir diese Technologie zum Auffinden von Inhalten, die mit Selbsttötung oder Selbstverletzung zu tun haben, nur außerhalb der Europäischen Union einsetzen. Deshalb war es in Europa für uns bisher schwer, solchen Content proaktiv zu finden und den Betroffenen zu helfen. Umso mehr freue ich mich, dass wir ab heute einen Teil dieser Technologie auch in der EU einsetzen können – und zwar auf Facebook und Instagram. Jetzt können wir effektiver nach Beiträgen suchen, die gegen unsere Richtlinien bezüglich Suizid und Selbstverletzung verstoßen. Nur so lässt sich die Sichtbarkeit solcher Posts einschränken, indem wir sie automatisch aus Bereichen wie beispielsweise Explore entfernen. Wenn unser System ermittelt, dass ein Beitrag mit sehr hoher Wahrscheinlichkeit nicht unseren Richtlinien entspricht, können wir diesen jetzt auch automatisch komplett entfernen.
Dies ist ein wichtiger Schritt, um unsere Nutzer*innen in der EU besser zu schützen und Hilfe anzubieten. Aber wir möchten noch viel mehr tun. Der nächste Schritt für uns wäre, mit unserer Technologie solchen schädlichen Content nicht nur aufzuspüren und weniger sichtbar zu machen. Vielmehr wollen wir diese Inhalte an unsere Review-Mitarbeitenden senden, die Hilfsmaßnahmen einleiten können – so wie wir das überall sonst auf der Welt schon tun. Dass uns diese Möglichkeit in der EU nicht zur Verfügung steht, erschwert es uns, die Betroffenen an Seelsorge- und Notfalldienste vor Ort zu verweisen. In den USA wurden beispielsweise 80 % der Konten, deren Nutzer*innen wir zwischen August und Oktober an lokale Seelsorge- und Notfalldienste verwiesen haben, mithilfe unserer proaktiven Systeme entdeckt. Derzeit beraten wir mit verschiedenen Behörden und Regierungen darüber, wie wir diese Technologie unter Einhaltung der Datenschutzauflagen auch innerhalb der EU einsetzen könnten. Wir sind optimistisch, dass wir bald eine zufriedenstellende Lösung für alle finden können. Das Thema ist einfach zu wichtig, um Möglichkeiten zur Hilfe unversucht zu lassen.
Wir sind der Meinung, dass unsere Community unser dafür zur Rechenschaft ziehen sollte, wie gut wir unsere Richtlinien durchsetzen und gegen schädliche Inhalte vorgehen. Darum veröffentlichen wir regelmäßig Berichte zur Durchsetzung der Gemeinschaftsstandards und machen öffentlich, gegen wie viele schädliche Inhalte wir weltweit Maßnahmen ergriffen haben und wie viele solcher Inhalte wir entfernen konnten, bevor sie gemeldet wurden. Folgende Übersicht zeigt, welche Fortschritte wir bisher gemacht haben bei unserem Vorgehen gegen Inhalte zum Thema Suizid und Selbstverletzung.