Des mesures supplémentaires pour assurer la sécurité des utilisateur·ices d’Instagram

Par  

Adam Mosseri, responsable d’Instagram

27 octobre 2019

Mise à jour du 30/09/21 : les informations contenues dans cet article sont peut-être obsolètes. Pour consulter des informations à jour sur nos technologies de détection du contenu sur le suicide et l’automutilation, accédez à notre centre de sécurité. Comme indiqué dans le centre de sécurité, nos algorithmes sont conçus pour identifier le contenu portant potentiellement sur le suicide et l’automutilation, sans fins de diagnostic ou de traitement de maladies mentales ou d’autres maladies.

Rien n’est plus important pour moi que la sécurité des internautes qui utilisent Instagram, et tout particulièrement les plus vulnérables. Le suicide et l’automutilation sont des sujets difficiles et complexes, qui inquiètent naturellement les internautes. La complexité de ces questions est élevée et les opinions sur la meilleure façon de les aborder abondent, mais elles sont d’une importance capitale. En tant que parent, elles me concernent directement.

Mes premières pensées vont à l’ensemble des personnes qui font face à ces difficultés, ainsi qu’à leur famille et à leurs amis ; je ne peux qu’imaginer ce qu’elles et ils doivent traverser. Je suis cependant conscient que le simple fait de penser à ces personnes ne suffit pas. Chez Instagram, il est de notre responsabilité de faire tout ce qui est en notre pouvoir pour assurer la sécurité des utilisateur·ices de notre plateforme, en particulier de celles et ceux qui peuvent présenter des risques de suicide ou d’automutilation.

Les communautés en ligne se trouvent face à deux réalités opposées. D’un côté, la dure réalité est que certain·es jeunes sont influencé·es de manière négative par ce qu’elles et ils voient en ligne, ce qui peut les conduire à s’automutiler. Ce risque est bel et bien réel.

Mais de l’autre, beaucoup viennent en ligne pour trouver du soutien afin de gérer leurs difficultés, notamment auprès des internautes qui affichent leurs cicatrices guéries ou témoignent de leur victoire contre un trouble alimentaire. Ces réseaux de solidarité en ligne sont souvent le seul moyen d’échanger avec d’autres personnes qui ont traversé les mêmes épreuves.

En nous appuyant sur les conseils d’universitaires et d’organisations spécialisées en matière de santé mentale, comme l’association Samaritans au Royaume-Uni et la ligne nationale de prévention contre le suicide aux États-Unis, nous cherchons à trouver le juste équilibre entre la possibilité de partager des expériences liées à la santé mentale et la protection des internautes contre l’exposition à des contenus potentiellement dangereux.

Nous savons qu’un contenu qui peut être utile à certain·es peut être néfaste pour d’autres. Lors de mes échanges avec des jeunes qui ont été confronté·es à ces problèmes, j’ai compris qu’une même image pouvait aider un·e internaute un jour, mais produire l’effet totalement inverse le lendemain. C’est pourquoi nous n’autorisons (et n’avons jamais autorisé) qui que ce soit à partager du contenu qui encourage ou promeut l’automutilation ou le suicide.

Cette année, nous avons renforcé notre approche en matière de contenu lié au suicide et à l’automutilation. En février, nous avons interdit les images explicites d’automutilation et mis au point une nouvelle technologie permettant de les trouver et de les traiter. Nous avons fait en sorte que ce type de contenu et les comptes qui le partagent ne soient pas recommandés.

Cette méthode nous a permis de traiter deux fois plus de contenu qu’auparavant. Au cours des trois mois qui ont suivi notre changement de politique, nous avons supprimé plus de 834 000 contenus, avons réduit leur visibilité et leur avons ajouté des filtres de sensibilité. Nous avons pu trouver plus de 77 % de ces contenus avant qu’ils ne nous soient signalés. C’est un vrai progrès, mais nous avons parfaitement conscience qu’il s’agit d’un travail sans fin.

Le mois dernier, nous avons continué à renforcer nos politiques en interdisant d’autres types de contenus touchant à l’automutilation et au suicide. Nous n’autoriserons plus aucune représentation fictive d’automutilation ou de suicide sur Instagram, que ce soit sous forme de dessins, de memes ou d’extraits de films ou de bandes dessinées qui utilisent des images explicites. Nous supprimerons également toute autre image qui ne montre pas nécessairement d’automutilation ou de suicide, mais qui présente des contenus ou méthodes qui y sont associés.

Les comptes partageant ce type de contenu cesseront d’être recommandés dans les recherches ou dans nos espaces de découverte, comme Explorer. Nous enverrons également à davantage d’internautes des ressources supplémentaires concernant des lignes d’écoute locales comme Samaritans et PAPYRUS au Royaume-Uni ou la ligne nationale de prévention contre le suicide et The Trevor Project aux États-Unis.

Il s’agit de questions complexes qu’aucune entreprise ou liste de politiques et de pratiques ne peut résoudre à elle seule. On me demande souvent pourquoi nous autorisons certains contenus relatifs au suicide ou à l’automutilation sur Instagram. Les spécialistes estiment qu’offrir la possibilité aux internautes de se confier sur les épreuves qu’elles et ils ont traversées ou de livrer leurs témoignages sur leur rétablissement représente un soutien très précieux. Empêcher toute communication sur ces sujets pourrait non seulement stigmatiser les personnes souffrant de troubles de la santé mentale, mais aussi empêcher les proches d’identifier un appel au secours éventuel et d’y répondre.

Pour adopter la bonne approche, il faut néanmoins plus qu’un simple changement de nos politiques ou qu’une mise à jour ponctuelle de notre technologie. Notre travail là-dessus est sans fin. Nos politiques et notre technologie doivent évoluer à mesure que de nouvelles tendances apparaissent et que les comportements changent.

Pour nous aider à suivre les nouvelles tendances ou spécificités culturelles, nous rencontrons chaque mois des universitaires et des spécialistes en matière de suicide et d’automutilation. Nous collaborons avec MIND, l’organisation suédoise consacrée à la santé mentale, pour comprendre le rôle que jouent la technologie et les réseaux sociaux dans la vie des jeunes. Au Royaume-Uni, nous collaborons avec l’association Samaritans dans le cadre d’une initiative concernant l’ensemble du secteur pour élaborer de nouvelles règles ayant pour but de soutenir les personnes en détresse.

En dehors de l’Europe, nous disposons également d’une technologie supplémentaire qui nous permet d’identifier en amont les internautes qui pourraient avoir besoin d’aide. Nous souhaitons l’introduire en Europe, mais il existe d’importantes considérations juridiques dans le cadre de la législation européenne. Nous travaillons actuellement avec un régulateur européen sur ces questions.

À chaque fois que nous entendons parler d’une personne qui s’est automutilée et qui a pu être influencée par ce qu’elle a vu sur nos plateformes, nous nous rappelons des difficultés auxquelles beaucoup de jeunes sont confronté·es, tant dans le monde réel que dans le monde virtuel. Nous n’aurons de cesse de perfectionner nos méthodes de protection des internautes sur Instagram et continuerons à leur offrir la possibilité de recevoir du soutien en cas de besoin. Une aide au bon moment peut faire toute la différence.

Adam Mosseri, directeur d’Instagram