Nos mesures supplémentaires pour assurer la sécurité des utilisateurs d’Instagram

By Adam Mosseri, PDG d’Instagram

27 octobre 2019

Mise à jour du 30/09/21 : les informations contenues dans cet article sont peut-être obsolètes. Pour consulter des informations à jour sur nos technologies de détection du contenu sur le suicide et l’automutilation, accédez à notre centre de sécurité. Comme indiqué dans le centre de sécurité, nos algorithmes sont conçus pour identifier le contenu portant potentiellement sur le suicide et l’automutilation, sans fins de diagnostic ou de traitement de maladies mentales ou d’autres maladies.

------------

Rien n’est plus important pour moi que la sécurité des internautes qui utilisent Instagram, et tout particulièrement les plus vulnérables. Le suicide et l’automutilation sont des sujets difficiles et complexes, qui inquiètent naturellement le public. La complexité de ces questions est élevée et les opinions sur la meilleure façon de les aborder abondent, mais elles sont d’une importance capitale. En tant que parent, elles me touchent de près.

Mes premières pensées vont vers toutes celles et ceux qui font face à ces difficultés, ainsi qu’à leur famille et à leurs amis ; je ne peux qu’imaginer ce qu’ils doivent traverser. Je reconnais cependant que le seul fait de penser à eux ne suffit pas. Chez Instagram, il est de notre responsabilité de faire tout ce qui est en notre pouvoir pour assurer la sécurité de nos utilisateurs, en particulier de ceux qui peuvent présenter des risques de suicide et d’automutilation.

Les communautés en ligne se trouvent face à deux réalités qui se contredisent. D’un côté, la tragique réalité est que certains jeunes sont influencés de manière négative par ce qu’ils voient en ligne, ce qui peut les conduire à s’automutiler. Ce risque est bel et bien réel.

Mais de l’autre, nombre d’entre eux viennent en ligne pour trouver du soutien pour gérer leurs difficultés, comme ceux qui témoignent de leurs cicatrices guéries ou de leur victoire contre un trouble alimentaire. Ces réseaux de solidarité sont souvent le seul moyen d’échanger avec d’autres personnes qui ont vécu les mêmes expériences.

En nous appuyant sur les conseils d’experts universitaires et d’organisations du domaine de la santé mentale telles que l’association Samaritans au Royaume-Uni et la ligne nationale de prévention contre le suicide aux États-Unis, nous avons à cœur de trouver un équilibre entre la possibilité de partager ses expériences et la protection contre l’exposition à des contenus potentiellement dangereux.

Nous comprenons qu’un contenu qui peut être utile à certains peut être nuisible à d’autres. Dans mes échanges avec des jeunes qui ont été confrontés à ces problèmes, j’ai compris qu’une même image pouvait aider quelqu’un un jour, mais produire l’effet totalement inverse le lendemain. C’est pourquoi nous n’autorisons (et n’avons jamais autorisé) qui que ce soit à partager du contenu qui encourage ou promeut l’automutilation ou le suicide.

Au début de l’année, nous avons renforcé notre approche en matière de contenu lié au suicide et à l’automutilation. En février, nous avons interdit les images graphiques d’automutilation et mis au point une nouvelle technologie permettant de les trouver et d’agir dessus. Nous nous sommes efforcés de faire en sorte que ce type de contenu et les comptes qui le partagent ne soient pas recommandés.

Cette méthode nous a permis de traiter deux fois plus de contenu qu’auparavant. Au cours des trois mois qui ont suivi notre changement de politique, nous avons supprimé, réduit la visibilité ou ajouté des écrans de sensibilité à plus de 834 000 contenus. Nous avons pu trouver plus de 77 % de ce contenu avant qu’il ne nous soit signalé. C’est un vrai progrès, mais nous avons parfaitement conscience qu’il s’agit d’un travail sans fin.

Le mois dernier, nous avons encore élargi nos politiques pour interdire d’autres types de contenus touchant à l’automutilation et au suicide. Nous n’autoriserons plus aucune représentation fictive d’automutilation ou de suicide sur Instagram, que ce soit sous forme de dessins, de mèmes ou d’extraits de films ou de bandes dessinées qui utilisent des images graphiques. Nous supprimerons également toute autre image qui ne montre pas nécessairement d’automutilation ou de suicide, mais qui inclue tout contenu ou méthode qui y sont associés.

Les comptes partageant ce type de contenu ne seront pas non plus recommandés dans la recherche ou dans nos surfaces de découverte, comme Explorer. Nous enverrons également à davantage de personnes des ressources supplémentaires contenant des lignes d’écoute locales comme Samaritans et PAPYRUS au Royaume-Uni ou la ligne nationale de prévention contre le suicide et The Trevor Project aux États-Unis.

Il s’agit de questions complexes qu’aucune entreprise ou liste de politiques et de pratiques ne peut résoudre à elle seule. On me demande souvent pourquoi nous autorisons certains contenus relatifs au suicide ou à l’automutilation sur Instagram. Les experts estiment qu’offrir la possibilité aux gens de se confier sur leurs moments les plus difficiles ou de livrer leurs témoignages sur leur rétablissement peut offrir un soutien très précieux. Empêcher toute communication sur ces sujets pourrait non seulement stigmatiser les personnes souffrant de troubles de la santé mentale, mais aussi empêcher les proches d’identifier et de répondre à un appel au secours éventuel.

Mais pour adopter la bonne approche, il faut plus qu’un simple changement de nos règles ou une mise à jour ponctuelle de notre technologie. Notre travail là-dessus est sans fin. Nos politiques et notre technologie doivent évoluer à mesure que de nouvelles tendances apparaissent et que les comportements changent.

Pour nous aider à rester au courant des nouvelles tendances ou des nouvelles nuances culturelles, nous rencontrons chaque mois des universitaires et des experts du suicide et de l’automutilation. Nous collaborons avec MIND, l’organisation suédoise consacrée à la santé mentale, pour comprendre le rôle que jouent la technologie et les réseaux sociaux dans la vie des jeunes. Au Royaume-Uni, nous travaillons avec tout le secteur et en collaboration avec l’association Samaritans à l’élaboration de nouvelles règles ayant pour but de soutenir les personnes en détresse.

En dehors de l’Europe, nous disposons également d’une technologie supplémentaire qui nous aide à trouver de manière proactive les utilisateurs qui pourraient avoir besoin d’aide. Nous souhaitons l’introduire sur ce continent, mais il existe des considérations juridiques importantes dans le cadre de la législation européenne ; nous travaillons actuellement avec un régulateur européen sur ces questions.

Chaque fois que nous entendons parler d’une personne qui s’est automutilée et qui a pu être influencée par ce qu’elle a vu sur nos plates-formes, cela nous rappelle les difficultés auxquelles de nombreux jeunes sont confrontés, tant dans le monde réel que dans le monde virtuel. Nous n’aurons de cesse de perfectionner nos méthodes de protection des utilisateurs sur Instagram, et continuerons à leur offrir la possibilité de recevoir du soutien en cas de besoin. Une aide au bon moment peut faire toute la différence.

Adam Mosseri, PDG d’Instagram

ARTICLES CONNEXES

Consulter d’autres annonces sur Instagram