9 novembre 2020
Nous voulons faire tout notre possible pour assurer la sécurité des utilisateurs d’Instagram. Nous avons travaillé avec des experts pour mieux comprendre les questions profondément complexes que sont la santé mentale, le suicide et l’automutilation, ainsi que pour déterminer la meilleure façon de soutenir les personnes vulnérables. Personne chez Instagram ne prend ces questions à la légère, moi y compris. Nous avons progressé ces dernières années et déployons aujourd’hui plus de technologies en Europe pour accompagner nos efforts. Toutefois, notre travail n’est jamais terminé et nous devons constamment chercher des moyens d’en faire plus.
Nous sommes conscients qu’il s’agit de sujets très personnels pour les personnes concernées. Ils sont également complexes et en constante évolution, c’est pourquoi nous continuons à mettre à jour nos règles et nos produits afin de pouvoir soutenir au mieux notre communauté. Nous n’avons jamais permis à quiconque de promouvoir ou d’encourager le suicide ou l’automutilation sur Instagram, et l’année dernière, nous avons mis à jour nos règles afin de supprimer tout contenu explicite en la matière. Nous avons aussi élargi nos règles pour interdire les représentations fictives comme les dessins, les memes ou autres images qui présentent des informations ou des méthodes associées au suicide ou à l’automutilation.
Il ne suffit pas d’aborder ces questions difficiles à travers nos règles et nos produits. Nous sommes convaincus qu’il est également important d’apporter une aide aux personnes en difficulté. Nous offrons un soutien aux personnes qui recherchent des comptes ou des hashtags liés au suicide et à l’automutilation, et les orientons vers des organisations locales capables de les aider. En outre, nous avons aidé Samaritans, une organisation caritative de prévention du suicide, à élaborer ses guide de bonnes pratiques, qui sont conçues pour aider les plates-formes comme la nôtre à trouver un équilibre important entre la lutte contre les contenus nuisibles et la mise à disposition de ressources de soutien pour celles et ceux qui en ont besoin.
Nous utilisons la technologie pour trouver et supprimer de manière proactive toujours plus de contenus nuisibles sur le suicide et l’automutilation. Notre technologie permet de repérer les publications susceptibles de contenir des contenus portant sur le suicide ou l’automutilation et de les envoyer à des examinateurs humains pour qu’ils prennent la décision finale et les mesures appropriées. Ces mesures comprennent le retrait du contenu, la mise en relation de la personne à l’origine de la publication avec des organisations locales qui peuvent l’aider ou, dans les cas les plus graves, le recours aux services d’urgence. Entre avril et juin de cette année, plus de 90 % des contenus relatifs au suicide et à l’automutilation pour lesquels nous sommes intervenus ont été détectés par notre propre technologie avant même qu’un utilisateur ne nous les signale. Toutefois, notre objectif est de nous rapprocher le plus possible des 100 %.
Jusqu’à présent, nous n’avons pu utiliser cette technologie que pour identifier des contenus sur le suicide et l’automutilation en dehors de l’Union européenne, ce qui nous a compliqué la tâche pour détecter des contenus de manière proactive et envoyer de l’aide aux personnes. Je suis heureux de vous annoncer qu’aujourd’hui, dans l’Union européenne, nous déployons une partie de cette technologie, qui fonctionnera à la fois sur Facebook et Instagram. Nous pouvons désormais rechercher les publications susceptibles d’enfreindre nos règles en matière de suicide et d’automutilation et les rendre moins visibles en les supprimant automatiquement d’endroits comme Explorer. De plus, lorsque notre technologie est vraiment sûre qu’une publication enfreint nos règles, nous pouvons maintenant la supprimer automatiquement.
Il s’agit d’une avancée importante qui permettra de protéger davantage de personnes dans l’Union européenne. Mais nous voulons faire bien plus. La prochaine étape consiste à utiliser notre technologie non seulement pour trouver le contenu et le rendre moins visible, mais aussi pour l’envoyer à nos examinateurs humains et venir en aide aux utilisateurs, comme nous le faisons partout ailleurs dans le monde. En l’absence de ce dispositif dans l’Union européenne, il nous est plus difficile de mettre les personnes en contact avec les organisations locales et les services d’urgence. Par exemple, entre août et octobre, aux États-Unis, plus de 80 % des comptes que nous avons signalés aux organisations locales et aux services d’urgence ont été détectés par notre technologie proactive. Nous sommes actuellement en pourparlers avec les responsables de la réglementation et les gouvernements sur la meilleure façon de déployer cette technologie dans l’Union européenne, tout en protégeant la vie privée des utilisateurs. Nous estimons et espérons pouvoir trouver le bon équilibre afin de pouvoir faire plus. Nous ne pouvons pas nous arrêter en si bon chemin au vu de l’importance de ces questions.
Historique des mesures prises pour lutter contre les contenus relatifs à l’automutilation et au suicide sur Instagram
Quelques chiffres
Nous estimons que notre communauté devrait être en mesure de nous mettre devant nos responsabilités quant à l’application de nos règles et aux mesures que nous prenons contre les contenus nuisibles. C’est pourquoi nous publions régulièrement des rapports sur l’application de nos Standards de la communauté afin de partager des données mondiales sur le nombre de contenus enfreignant nos règles que nous traitons et sur le pourcentage de ces contenus que nous détectons nous-mêmes, avant qu’ils ne soient signalés. Cette historique présente les progrès que nous avons réalisés dans la lutte contre les contenus relatifs au suicide et à l’automutilation sur Instagram, comme le montrent ces rapports.
ARTICLES CONNEXES