Tomamos más medidas para preservar la seguridad de las personas que usan Instagram

De  

Adam Mosseri, director de Instagram

27 de octubre de 2019

Actualización del 30 de septiembre de 2021: es posible que la información en este artículo esté desactualizada. Para obtener información actual sobre nuestra tecnología de detección de contenido sobre suicidio y autolesiones, visita nuestro Centro de seguridad. Como se describe en el Centro de seguridad, nuestros algoritmos tienen por objetivo ayudar a identificar contenido sobre potencial suicidio y autolesiones, y no diagnosticar ni tratar cualquier enfermedad mental u otra condición.

Nada es más importante para mí que la seguridad de las personas que usan Instagram, especialmente las más vulnerables. El suicidio y la autoagresión son temas difíciles y complejos que lógicamente preocupan mucho a las personas. Estos temas son complicados (de hecho, hay muchas opiniones sobre la mejor manera de abordarlos), pero son de suma importancia, y para mí, como padre, me tocan de cerca.

Mis primeras reflexiones van dirigidas a cualquier persona que se enfrente a estos problemas tan difíciles, así como a sus familiares y amigos. No puedo ni siquiera imaginar por lo que están pasando. También reconozco que no basta con tener presente a las personas en mis propias reflexiones. En Instagram, le debemos a todos los que usan nuestra plataforma hacer todo lo que esté a nuestro alcance para mantenerlos a salvo, especialmente a aquellos que pueden estar en riesgo de suicidio y autoagresión.

Hay dos cosas que son ciertas sobre las comunidades online, y que están en conflicto entre sí. En primer lugar, la triste realidad es que algunos jóvenes se ven influenciados de forma negativa por lo que ven online y, como resultado, pueden hacerse daño a sí mismos. Este es un riesgo real.

Sin embargo, al mismo tiempo, hay muchos jóvenes que acuden a internet para obtener apoyo con las luchas que enfrentan, como quienes comparten cicatrices ya sanadas o hablan de su recuperación de un trastorno alimenticio. A veces, estas redes de apoyo online son la única forma de encontrar a otras personas que compartieron sus experiencias.

Siguiendo el asesoramiento de especialistas y de organizaciones de salud mental como Samaritans, en el Reino Unido, y National Suicide Prevention Line, en EE. UU., nos esforzamos por encontrar el difícil equilibrio entre permitir que las personas compartan sus experiencias de salud mental y proteger a los demás de la exposición a contenido que pueda ser dañino.

Entendemos que el contenido que puede ser útil para algunos puede resultar perjudicial para otros. Al hablar con jóvenes que lucharon contra estos problemas, descubrí que la misma imagen puede ser útil para una persona un día, pero desencadenante al día siguiente. Por eso, no permitimos que se comparta contenido que fomente o promueva el suicidio o la autoagresión. Nunca lo permitimos.

A principios de este año, reforzamos nuestro enfoque sobre el contenido relacionado con el suicidio y la autoagresión. En febrero, prohibimos las imágenes gráficas de autoagresión y desarrollamos una nueva tecnología para encontrar este tipo de contenido y actuar en función de él. Además, trabajamos para garantizar que este tipo de contenido, y las cuentas que lo comparten, no se recomienden.

Como resultado, logramos intervenir en el doble de contenido que antes. En los tres meses siguientes a nuestro cambio de política, eliminamos más de 834.000 contenidos, redujimos su visibilidad o les agregamos pantallas de contenido delicado. Pudimos encontrar más del 77% de estos contenidos antes de que se nos reportaran. Aunque esto supone un avance, sabemos que el trabajo nunca termina.

El mes pasado, ampliamos nuestras políticas para prohibir más tipos de contenidos de suicidio y autoagresión. Ya no permitiremos representaciones ficticias de autoagresión o suicidio en Instagram, como dibujos o memes, o contenido de películas o cómics que utilicen imágenes gráficas. También eliminaremos otras imágenes que no muestren autoagresiones o suicidios, pero que incluyan materiales o métodos para ello.

Las cuentas que compartan este tipo de contenido tampoco se recomendarán en las búsquedas ni en nuestras áreas de descubrimiento, como en la sección "Explorar". Asimismo, enviaremos a más personas más recursos con líneas de ayuda localizadas como Samaritans y PAPYRUS, en el Reino Unido, o la National Suicide Prevention Lifeline y The Trevor Project, en Estados Unidos.

Son temas complejos que ninguna empresa o conjunto de políticas y prácticas puede resolver por sí sola. A menudo me preguntan por qué permitimos todo tipo de contenido sobre el suicidio o la autoagresión en Instagram. Los especialistas nos indican que dar a las personas la oportunidad de compartir sus momentos más difíciles y sus historias de recuperación puede ser un recurso vital de apoyo. Impedir que las personas compartan este tipo de contenido no solo podría estigmatizar estos problemas de salud mental, sino que podría impedir que los seres queridos identifiquen y respondan a un pedido de ayuda.

No obstante, para adoptar un enfoque adecuado se necesita más que un simple cambio en nuestras políticas o una única actualización de nuestra tecnología. Nuestro trabajo aquí nunca termina. Tenemos que actualizar nuestras políticas y tecnologías a medida que surgen nuevas tendencias y cambian los comportamientos.

Para ayudarnos a estar al tanto de las nuevas tendencias o los matices culturales, nos reunimos todos los meses con académicos y especialistas en suicidio y autoagresión. Además, colaboramos con la organización de salud mental sueca MIND para comprender el papel que desempeñan la tecnología y los medios sociales en la vida de los jóvenes. En el Reino Unido, colaboramos con Samaritans en una iniciativa de todo el sector para dar forma a nuevas normas que ayuden a las personas en situación de peligro.

Fuera de Europa también disponemos de tecnología adicional que nos ayuda a encontrar de forma proactiva a personas que podrían necesitar ayuda. Queremos implementarla en Europa, pero hay importantes consideraciones legales de acuerdo con la ley de la Unión Europea, por lo que estamos trabajando con nuestro regulador en Europa.

Cada vez que oímos hablar de alguien que se hace daño y que posiblemente estuvo influenciado por lo que vio en nuestras plataformas, nos acordamos de las luchas a las que se enfrentan muchos jóvenes dentro y fuera de la red. Seguiremos trabajando para preservar la seguridad de todos en Instagram y, al mismo tiempo, para que las personas puedan acceder a una red de apoyo que marque la diferencia cuando más lo necesitan.

Adam Mosseri, director de Instagram