Un paso importante para proteger a nuestra comunidad en Europa

November 10, 2020

Hacemos todo lo que está a nuestro alcance para proteger a las personas en Instagram. Trabajamos con expertos para entender mejor los temas complejos relativos a la salud mental, el suicidio y la autoagresión, y cómo podemos servir de ayuda a las personas en situación de vulnerabilidad. En Instagram, ninguno de nosotros se toma estos temas a la ligera. Llevamos algunos años logrando avances importantes y, a partir de hoy, implementaremos más tecnología en Europa para respaldar nuestras iniciativas. Sin embargo, nuestro trabajo nunca termina y debemos buscar constantemente nuevas formas de ayudar.


Nos damos cuenta de que estos temas son algo muy personal para quienes los sufren. También sabemos que se trata de situaciones complicadas que cambian constantemente. Por eso, seguimos actualizando nuestras políticas y productos para ayudar a nuestra comunidad de la mejor forma posible. Nunca permitimos que nadie promueva ni aliente el suicido o la autoagresión en Instagram. Además, el año pasado, actualizamos nuestras políticas para eliminar todo el contenido gráfico sobre estas problemáticas. También ampliamos las políticas para prohibir representaciones ficticias (como dibujos, memes u otras imágenes) que mostraran materiales o métodos asociados al suicidio o la autoagresión.


No basta con abordar estas problemáticas mediante políticas y productos. También estamos convencidos de que es importante prestar ayuda a quienes sufren. Cuando una persona busca cuentas o hashtags sobre suicidio o autoagresión, le ofrecemos ayuda y le proporcionamos información sobre organizaciones en su zona que puedan brindarle asistencia. También trabajamos en conjunto con Samaritans, la organización benéfica para la prevención de suicidios, en la redacción de sus normas del sector. Estas normas tienen por objetivo ayudar a plataformas como la nuestra a lograr el equilibrio necesario entre eliminar el contenido dañino y brindar información sobre los lugares que pueden prestar ayuda a quienes la necesitan.


Usamos tecnología que nos permite encontrar y eliminar más contenido dañino sobre suicidio y autoagresión. Nuestros sistemas detectan publicaciones que podrían tener contenido sobre suicidio o autoagresión, y las envían a revisión manual para que alguien tome una decisión definitiva e implemente la medida correspondiente. Algunas de estas medidas son eliminar el contenido, conectar al usuario que publicó el contenido con organizaciones de su zona que puedan brindar ayuda o, en casos muy graves, llamar a los servicios de emergencia. Entre abril y junio de este año, nuestra tecnología detectó más del 90% del contenido relacionado con suicido y autoagresión sobre el que tomamos medidas antes de que alguien lo reportara. Sin embargo, nuestro objetivo es acercarnos todo lo posible al 100%.


Hasta el momento, solo podíamos usar nuestros sistemas para detectar contenido sobre suicidio y autoagresión fuera de la Unión Europea, lo que dificultaba la tarea de encontrar el contenido de manera proactiva y ofrecer ayuda a los usuarios de esta región. Me complace anunciar que, a partir de hoy, implementaremos parte de nuestra tecnología en Facebook e Instagram en la Unión Europea. Esto nos posibilita buscar publicaciones que podrían infringir nuestras normas relativas al contenido sobre suicidio y autoagresión, y eliminarlas automáticamente de determinados lugares (como la sección "Explorar") para que tengan menos visibilidad. Asimismo, si nuestra tecnología detecta contenido que definitivamente infringe las normas, podemos eliminarlo de forma automática.


Este es un paso importante para proteger a más personas en la Unión Europea, pero no es el único. Próximamente, además de usar nuestra tecnología para detectar contenido y reducir su visibilidad, queremos poder enviarlo a revisión manual y ofrecer ayuda a los usuarios, como lo hacemos en el resto del mundo. La imposibilidad de tomar estas medidas en la Unión Europea dificulta nuestra capacidad de eliminar más contenido dañino y de conectar a las personas con organizaciones y servicios de emergencia en su zona. Actualmente, participamos de conversaciones con reguladores y gobiernos para definir la mejor manera de implementar nuestra tecnología en la Unión Europea sin atentar contra sus consideraciones de privacidad. Esperamos poder encontrar el equilibrio adecuado que nos permita avanzar, ya que estos temas son demasiado importantes como para no hacerlo.


Cronología de las medidas que tomamos para abordar el contenido sobre suicidio y autoagresión en Instagram

  • Diciembre de 2016: lanzamos la capacidad para reportar las publicaciones sobre autoagresión de forma anónima y empezamos a conectar a las personas con las organizaciones que pudieran brindar ayuda.
  • Marzo de 2017: incorporamos herramientas para la prevención de suicidios en Facebook Live a fin de que amigos y familiares pudieran enviar reportes y comunicarse más fácilmente con las personas en tiempo real.
  • Noviembre de 2017: implementamos tecnología fuera de los EE. UU. (a excepción de Europa) para ayudar a identificar situaciones en las que una persona podría expresar pensamientos suicidas, incluso en Facebook Live. Empezamos a usar inteligencia artificial para priorizar los reportes, poder enviar ayuda a las personas y alertar a los servicios de emergencia con la máxima celeridad posible.
  • Septiembre de 2018: creamos una Guía para padres de adolescentes que usan Instagram.
  • Febrero de 2019: empezamos a organizar reuniones periódicas con expertos en seguridad y prevención de suicidios de todo el mundo para que nos asesoren sobre la complejidad cada vez mayor del suicidio y la autoagresión, y para que revisen con frecuencia nuestra estrategia.
  • Febrero de 2019: ampliamos nuestras políticas para prohibir todo el contenido gráfico sobre suicidio y autoagresión, incluso si se había admitido en el pasado. También hicimos que fuera más difícil encontrar este tipo de contenido en las búsquedas, bloqueamos hashtags relacionados, aplicamos pantallas de contenido delicado a todas las publicaciones admitidas y aumentamos el envío de recursos a personas que publicaran o buscaran este tipo de contenido.
  • Octubre de 2019: ampliamos nuestras políticas para prohibir contenido ficticio sobre suicidio o autoagresión, incluidos memes e ilustraciones, y contenido con métodos o materiales relacionados.
  • Septiembre de 2020: trabajamos en conjunto con Samaritans para publicar sus normas nuevas sobre cómo administrar con seguridad el contenido online sobre suicidio y autoagresión.
  • Octubre de 2020: agregamos un mensaje encima de todas las búsquedas que incluyeran palabras relativas al suicidio o la autoagresión. En el mensaje, se ofrece ayuda e información sobre las organizaciones que pueden brindar asistencia al usuario en su zona.
  • Noviembre de 2020: implementamos tecnología en la Unión Europea para detectar de forma proactiva más contenido sobre suicidio y autoagresión a fin de reducir su visibilidad.

Cifras


Creemos firmemente que nuestra comunidad debe poder evaluar cómo implementamos nuestras políticas y tomamos medidas sobre el contenido dañino. Por eso, publicamos de forma periódica informes de cumplimiento de las Normas comunitarias para compartir datos globales relativos al contenido sobre el que tomamos medidas y el porcentaje de ese contenido que detectamos antes de que alguien lo reporte. En esta cronología, se detallan nuestros avances para eliminar contenido sobre suicidio y autoagresión en Instagram de acuerdo con los informes mencionados.

ARTÍCULOS RELACIONADOS

Descubre más novedades sobre Instagram