Une avancée majeure vers une meilleure protection de notre communauté en Europe

10 novembre 2020

Mise à jour du 02/09/21 : nous cherchons continuellement de nouvelles manières d’apporter notre soutien à la communauté, et nous organisons des rencontres régulières avec notre groupe consultatif chargé des questions liées au suicide et à l’automutilation. Depuis un moment, nous consultons ces experts afin de déterminer la meilleure approche à adopter pour gérer certains types de contenu spécifiques qui n’enfreignent pas nos règles, mais qui abordent ou banalisent des sujets comme le suicide, la mort ou la dépression. Les spécialistes reconnaissent qu’il est important d’autoriser ce type de publication pour que les utilisateurs puissent exprimer ce qu’ils ressentent et que leurs familles et leurs proches puissent les contacter. Cela dit, ils pensent qu’il est important de faire le nécessaire pour protéger les autres internautes contre certains contenus susceptibles d’être dérangeants. C’est pourquoi, plutôt que de supprimer complètement ces contenus, nous allons faire en sorte de ne plus les recommander dans des endroits tels qu’Explorer, afin qu’ils soient plus difficiles à trouver. Nous espérons ainsi parvenir à trouver cet équilibre délicat et nous continuerons à consulter les experts au fur et à mesure des avancées de la recherche dans ce domaine.

------------

Nous voulons faire tout notre possible pour assurer la sécurité des utilisateurs d’Instagram. Nous avons travaillé avec des experts afin de mieux comprendre les questions profondément complexes que sont la santé mentale, le suicide et l’automutilation, ainsi que pour déterminer la meilleure façon de soutenir les personnes vulnérables. Personne chez Instagram ne prend ces questions à la légère, moi y compris. Nous avons progressé ces dernières années et déployons aujourd’hui plus de technologies en Europe pour accompagner nos efforts. Toutefois, notre travail n’est jamais terminé et nous devons constamment chercher des moyens d’en faire plus.


Nous avons conscience du fait qu’il s’agit de sujets très personnels pour les personnes concernées. Ces questions sont également complexes et en constante évolution, c’est pourquoi nous continuons à mettre à jour nos règles et nos produits afin de pouvoir soutenir au mieux notre communauté. Nous n’avons jamais permis à quiconque de promouvoir ou d’encourager le suicide ou l’automutilation sur Instagram, et l’année dernière, nous avons mis à jour nos règles afin de supprimer tout contenu explicite en la matière. Nous avons aussi élargi nos politiques pour interdire les représentations fictives comme les dessins, les memes ou autres images qui présentent des informations ou des méthodes associées au suicide ou à l’automutilation.


Mais répondre à ces questions difficiles en adaptant nos règles et nos produits n’est pas suffisant. Nous sommes convaincus qu’il est également important de soutenir les personnes en difficulté. Nous apportons de l’aide aux personnes qui recherchent des comptes ou des hashtags liés au suicide et à l’automutilation, et les orientons vers des organisations locales capables de les aider. En outre, nous avons aidé Samaritans, une organisation caritative de prévention du suicide, à élaborer ses guides de bonnes pratiques, qui sont conçus pour aider les plates-formes comme la nôtre à trouver l’équilibre nécessaire entre la lutte contre les contenus nuisibles et la mise à disposition de ressources pour celles et ceux qui en ont besoin.


Nous utilisons la technologie pour trouver et supprimer de manière proactive toujours plus de contenus nuisibles sur le suicide et l’automutilation. Nos technologies permettent de repérer les publications susceptibles d’inclure des contenus portant sur le suicide ou l’automutilation et de les envoyer à des examinateurs humains pour qu’ils prennent la décision finale et les mesures appropriées. Ces mesures comprennent le retrait du contenu, la mise en relation de la personne à l’origine de la publication avec des organisations locales qui peuvent l’aider ou, dans les cas les plus graves, le recours aux services d’urgence. Entre avril et juin de cette année, plus de 90 % des contenus relatifs au suicide et à l’automutilation pour lesquels nous sommes intervenus ont été détectés par notre propre technologie avant même qu’un utilisateur ne nous les signale. Toutefois, notre objectif est de nous rapprocher le plus possible des 100 %.


Jusqu’à présent, nous n’avons pu utiliser cette technologie que pour identifier des contenus sur le suicide et l’automutilation en dehors de l’Union européenne, ce qui nous a compliqué la tâche pour détecter des contenus de manière proactive et envoyer de l’aide aux personnes. Je suis heureux de vous annoncer qu’aujourd’hui, dans l’Union européenne, nous déployons une partie de cette technologie, qui fonctionnera à la fois sur Facebook et Instagram. Nous pouvons désormais rechercher les publications susceptibles d’enfreindre nos règles en matière de suicide et d’automutilation et les rendre moins visibles en les supprimant automatiquement d’endroits comme Explorer. De plus, lorsque notre technologie est vraiment sûre qu’une publication enfreint nos règles, nous pouvons maintenant la supprimer automatiquement.


Il s’agit d’une avancée importante qui permettra de protéger davantage de personnes dans l’Union européenne. Mais nous voulons aller plus loin. La prochaine étape consiste à utiliser notre technologie non seulement pour trouver le contenu et le rendre moins visible, mais aussi pour l’envoyer à nos examinateurs humains et venir en aide aux utilisateurs, comme nous le faisons partout ailleurs dans le monde. En l’absence de ce dispositif dans l’Union européenne, il nous est plus difficile de mettre les personnes en contact avec les organisations locales et les services d’urgence. Par exemple, entre août et octobre, aux États-Unis, plus de 80 % des comptes que nous avons signalés aux organisations locales et aux services d’urgence ont été détectés par notre technologie proactive. Nous sommes actuellement en pourparlers avec les responsables de la réglementation et les gouvernements sur la meilleure façon de déployer cette technologie dans l’Union européenne, tout en protégeant la vie privée des utilisateurs. Nous estimons et espérons pouvoir trouver le bon équilibre afin de pouvoir faire plus. Nous ne pouvons pas nous arrêter en si bon chemin au vu de l’importance de ces questions.


Historique des mesures prises pour lutter contre les contenus relatifs à l’automutilation et au suicide sur Instagram

  • Décembre 2016 : lancement du signalement anonyme des publications portant sur l’automutilation et mise en relation des personnes avec des organisations susceptibles de leur venir en aide.
  • Mars 2017 : intégration d’outils de prévention du suicide dans Facebook Live, ce qui permet aux amis et à la famille de faire plus facilement des signalements et d’entrer en contact avec les utilisateurs en temps réel.
  • Novembre 2017 : déploiement de notre technologie en dehors des États-Unis (sauf en Europe) pour détecter lorsqu’un internaute exprime des pensées suicidaires, notamment sur Facebook Live. Début du recours à l’IA pour hiérarchiser les signalements, venir en aide aux personnes concernées et alerter les services d’urgence le plus rapidement possible.
  • Septembre 2018 : création d’un guide destiné aux parents d’adolescents qui utilisent Instagram.
  • Février 2019 : organisation de consultations régulières avec des experts de la sécurité et de la prévention du suicide dans le monde entier pour discuter de la complexité croissante du suicide et de l’automutilation, et pour obtenir un retour d’information régulier sur notre approche.
  • Février 2019 : élargissement de nos règles en vue d’interdire tout contenu explicite lié au suicide et à l’automutilation, même si le contenu a été autorisé auparavant. Nous avons également rendu ce type de contenu plus difficile à trouver lors des recherches, bloqué les hashtags associés et appliqué des écrans de sensibilité à tous les contenus préalablement autorisés, envoyant ainsi des ressources à un plus grand nombre de personnes publiant ou recherchant ce type de contenu.
  • Octobre 2019 : élargissement de nos règles en vue d’interdire les contenus fictifs sur l’automutilation ou le suicide, y compris les memes et les illustrations, et ceux présentant des méthodes ou des informations en la matière.
  • Septembre 2020 : collaboration avec l’organisation Samaritans pour le lancement de son nouveau guide sur la manière de gérer en toute sécurité les contenus en ligne relatifs à l’automutilation et au suicide.
  • Octobre 2020 : ajout d’un message en haut de tous les résultats de recherche, lorsque vous recherchez des termes liés au suicide ou à l’automutilation. Le message offre un soutien aux internautes et les redirige vers les organisations locales capables de les aider.
  • Novembre 2020 : déploiement de notre technologie dans l’Union européenne pour détecter de manière proactive les contenus plus nuisibles portant sur le suicide et l’automutilation et les rendre moins visibles.
  • Août 2021 : après consultation avec des experts, déploiement de moyens technologiques visant à identifier les contenus qui dépeignent ou banalisent des thèmes comme le suicide, la mort ou la dépression, et mise en place de solutions pour les rendre plus difficiles à trouver. Ces contenus ne seront pas supprimés, mais nous essaierons de ne pas les recommander dans des endroits comme Explorer.

Quelques chiffres


Nous estimons que notre communauté devrait être en mesure de nous mettre devant nos responsabilités quant à l’application de nos règles et aux mesures que nous prenons contre les contenus nuisibles. C’est pourquoi nous publions régulièrement des rapports sur l’application de nos Standards de la communauté afin de partager des données mondiales sur le nombre de contenus enfreignant nos règles que nous traitons et sur le pourcentage de ces contenus que nous détectons nous-mêmes, avant qu’ils ne soient signalés. Cet historique présente les progrès que nous avons réalisés dans la lutte contre les contenus relatifs au suicide et à l’automutilation sur Instagram, comme le montrent ces rapports.

ARTICLES CONNEXES

Consulter d’autres annonces sur Instagram