Um passo importante para melhorar a proteção da nossa comunidade na Europa

10 de novembro de 2020

Atualização em 02/09/2021: estamos sempre buscando maneiras de ajudar mais a nossa comunidade, e nos reunimos regularmente com os membros do nosso Conselho Contra o Suicídio e a Automutilação. Há algum tempo, consultamos esses especialistas sobre a forma certa de abordar um tipo específico de conteúdo que não viola as nossas regras, mas que pode retratar ou banalizar temas ligados a suicídio, morte ou depressão. Os especialistas concordam que é importante permitir esse tipo de publicação, para que as pessoas possam falar sobre como estão se sentindo e seus familiares e amigos possam ajudar, mas também precisamos evitar que outras pessoas se deparem com o conteúdo potencialmente perturbador. É por isso que, em vez de remover esse conteúdo por completo, não vamos recomendá-lo em lugares como o Explorar, dificultando sua descoberta. Esperamos que isso nos ajude a encontrar o equilíbrio, e continuaremos a consultar os especialistas conforme mais pesquisas sobre esse tema forem realizadas.

------------

Faremos tudo o que pudermos para manter as pessoas seguras no Instagram. Trabalhamos com especialistas para entender melhor as questões complexas de saúde mental, suicídio e automutilação, e aprender qual é a forma correta de ajudar pessoas vulneráveis. No Instagram, todos nós levamos essas questões muito a sério. Além do progresso dos últimos anos, hoje estamos lançando mais uma tecnologia na Europa para contribuir com as nossas iniciativas. Porém, o nosso trabalho nunca termina. Estamos sempre buscando maneiras de fazer mais.


Reconhecemos que essas questões são extremamente pessoais para as pessoas que lidam com elas. São também questões complicadas, que mudam constantemente. Por isso, continuamos a atualizar políticas e produtos para dar o melhor suporte à nossa comunidade. Nunca permitimos a promoção nem o incentivo ao suicídio ou à automutilação no Instagram. No ano passado, atualizamos as nossas políticas para remover todo o conteúdo explícito envolvendo esse tipo de conteúdo. Além disso, ampliamos as políticas para proibir representações fictícias, como desenhos, memes ou outras imagens, que mostrem materiais ou métodos associados a suicídio ou automutilação.


Não é suficiente abordar essas questões complexas apenas por meio de políticas e produtos. Também acreditamos que é importante dar ajuda e apoio às pessoas que estão enfrentando momentos difíceis. Damos suporte às pessoas que procuram contas ou hashtags relacionadas a suicídio e automutilação e as encaminhamos a organizações locais que podem ajudá-las. Também colaboramos com a Samaritans, uma instituição beneficente que trabalha com prevenção ao suicídio, a fim de desenvolver diretrizes para o setor que visam ajudar plataformas como a nossa a encontrar o importante equilíbrio entre combater o conteúdo prejudicial e dar apoio a quem precisa de ajuda.


Usamos uma tecnologia que nos ajuda a encontrar e remover proativamente o conteúdo mais prejudicial sobre suicídio e automutilação. Nossa tecnologia encontra publicações que possam ter conteúdo sobre suicídio e automutilação e as envia a analistas humanos para que tomem a decisão final e as medidas necessárias. As medidas incluem remover o conteúdo, colocar a pessoa que o publicou em contato com organizações locais que oferecem ajuda ou, nos casos mais graves, ligar para serviços de emergência. Entre abril e junho deste ano, mais de 90% do conteúdo sobre suicídio e automutilação contra o qual tomamos alguma medida foi encontrado por nossa própria tecnologia antes que alguém o denunciasse. No entanto, o nosso objetivo é fazer com que esse número seja o mais próximo possível de 100%.


Até agora, só foi possível usar essa tecnologia para encontrar conteúdo sobre suicídio e automutilação fora da União Europeia, o que dificultava a descoberta proativa desse tipo de conteúdo e o apoio às pessoas. Porém, hoje, estamos lançando parte dessa tecnologia na UE, que funcionará tanto no Facebook e quanto no Instagram. Agora, podemos procurar publicações que provavelmente violam as nossas regras sobre suicídio e automutilação e diminuir sua visibilidade, removendo-as automaticamente de locais como o Explorar. E quando a tecnologia detecta uma publicação que viola as regras, podemos removê-la automaticamente.


Esse é um passo importante para a proteção de mais pessoas na UE. Mas queremos fazer muito mais. O próximo passo é usar a nossa tecnologia não apenas para localizar conteúdo e torná-lo menos visível, mas também para enviá-lo aos nossos analistas humanos e ajudar as pessoas que precisam, como fazemos nos outros lugares do mundo. Como essa medida não está em vigor na UE, é mais difícil colocar as pessoas em contato com organizações locais e serviços de emergência. Por exemplo, nos EUA, entre agosto e outubro, mais de 80% das contas encaminhadas a organizações locais e serviços de emergência foram detectadas pela nossa tecnologia proativa. Atualmente, estamos conversando com reguladores e governos sobre a melhor forma de levar essa tecnologia para a UE, respeitando as respectivas considerações sobre privacidade. Esperamos encontrar o equilíbrio para que possamos ampliar as nossas iniciativas. Essas questões são muito importantes e não podemos parar de agir.


Linha do tempo: medidas que tomamos para lidar com o conteúdo sobre automutilação e suicídio no Instagram

  • Dezembro de 2016: lançamos as denúncias anônimas para publicações sobre automutilação e começamos a colocar pessoas em contato com organizações que podem ajudar.
  • Março de 2017: incluímos no Facebook Live ferramentas de prevenção contra o suicídio, de modo que amigos e familiares tivessem mais facilidade para denunciar conteúdo e entrar em contato com pessoas em tempo real.
  • Novembro de 2017: implementamos uma tecnologia fora dos Estados Unidos (exceto na Europa) para ajudar a identificar quando alguém pode estar expressando pensamentos suicidas, incluindo no Facebook Live. Começamos a usar IA para priorizar denúncias, ajudar pessoas e alertar os serviços de emergência o mais rápido possível.
  • Setembro de 2018: criamos um guia para pais, mães ou responsáveis de adolescentes que usam o Instagram.
  • Fevereiro de 2019: começamos a realizar consultas periódicas com especialistas do mundo todo em segurança e prevenção contra o suicídio, para discutir a complexidade do suicídio e da automutilação, além de receber feedbacks constantes sobre a nossa abordagem.
  • Fevereiro de 2019: ampliamos as nossas políticas para banir todo conteúdo explícito sobre suicídio e automutilação, mesmo se antes o conteúdo fosse permitido. Também dificultamos a presença desse conteúdo nas pesquisas, bloqueamos hashtags relacionadas e aplicamos telas de sensibilidade a todo conteúdo relacionado permitido, oferecendo recursos para mais pessoas que publicassem ou pesquisassem esse tipo de conteúdo.
  • Outubro de 2019: expandimos as nossas políticas para banir conteúdo fictício de automutilação ou suicídio, incluindo memes e ilustrações, além de conteúdo que contenha métodos ou materiais sobre esses temas.
  • Setembro de 2020: colaboramos com a Samaritans para o lançamento de suas novas diretrizes sobre como gerenciar de modo seguro o conteúdo online sobre automutilação e suicídio.
  • Outubro de 2020: inserimos uma mensagem na parte superior de todos os resultados de pesquisas sobre termos relacionados a suicídio ou automutilação. A mensagem oferece suporte e direciona as pessoas a organizações locais que podem ajudá-las.
  • Novembro de 2020: implementamos uma tecnologia na UE para buscar proativamente conteúdos prejudiciais sobre suicídio e automutilação, bem como diminuir sua visibilidade.
  • Agosto de 2021: após consultar especialistas, desenvolvemos uma tecnologia para identificar conteúdos que retratem ou banalizem temas ligados a suicídio, morte ou depressão, além de dificultar sua descoberta. Não removeremos esses conteúdos, mas vamos tentar não recomendá-los em lugares como o Explorar.

Os resultados


É nossa responsabilidade aplicar políticas e medidas contra conteúdo prejudicial, e acreditamos que a comunidade deve saber como estamos realizando esse trabalho. Por isso, publicamos regularmente Relatórios de Aplicação de Padrões da Comunidade, que trazem dados globais sobre a quantidade de conteúdo violador contra o qual estamos tomando medidas, além da porcentagem desse conteúdo que encontramos antes de ser denunciado. A seguinte linha do tempo descreve o progresso que fizemos no combate ao conteúdo relacionado com suicídio e automutilação no Instagram, conforme mostrado nos relatórios.

ARTIGOS RELACIONADOS

Confira mais avisos sobre Instagram