Adam Mosseri, diretor do Instagram
10 de novembro de 2020
Atualização de 14/04/2022: o suicídio e a automutilação são problemas complexos e podem ter consequências devastadoras. Queremos fazer tudo o que está ao nosso alcance para apoiar a comunidade. Por isso, venho compartilhar outro passo importante para mantermos as pessoas em segurança nos nossos apps. Graças às nossas discussões contínuas com o Departamento de Saúde e Assistência Social e o órgão regulador de proteção de dados do Reino Unido, nossa tecnologia de detecção proativa agora está enviando possível conteúdo sobre suicídio e automutilação encontrado no Reino Unido para a nossa equipe de análise. Isso já acontece em todos os outros lugares do mundo fora da União Europeia. Esses moderadores podem analisar o conteúdo e adotar as medidas adequadas, como removê-lo, direcionar a pessoa que fez a publicação para organizações de apoio locais ou, se necessário, entrar em contato com os serviços de emergência.
Até agora, conseguimos usar essa tecnologia no Reino Unido e na União Europeia para identificar possível conteúdo sobre suicídio e automutilação e reduzir a visibilidade dele automaticamente (por exemplo, impedindo que seja recomendado). Nos casos em que a tecnologia tinha absoluta certeza de que o conteúdo violava nossas regras, ela podia removê-lo automaticamente. No entanto, devido a discussões de longo prazo com governos e órgãos reguladores no Reino Unido e na União Europeia sobre como a tecnologia funciona e a natureza delicada do conteúdo sobre suicídio e automutilação, ainda não podíamos enviá-lo para nossa equipe de análise tomar as medidas apropriadas.
Agora, a combinação dessa tecnologia com nossa equipe de análise terá um impacto significativo no Reino Unido. Isso nos ajudará a remover mais conteúdo potencialmente prejudicial do Facebook e do Instagram. Além disso, também poderemos conectar as pessoas que compartilharem esse tipo de conteúdo a organizações como a Samaritans, ou a serviços de emergência nos momentos em que elas mais precisarem.
Desejamos continuar as discussões com nosso principal órgão regulador da União Europeia e esperamos fazer progressos semelhantes nessa região em breve.
Atualização de 30/09/2021: as informações neste artigo podem estar desatualizadas. Para obter informações atuais sobre nossa tecnologia de detecção de conteúdo relacionado a suicídio e automutilação, acesse a Central de Segurança. Conforme descrito na Central de Segurança, nossos algoritmos têm o objetivo de ajudar a identificar possível conteúdo sobre suicídio e automutilação, não de diagnosticar nem tratar problemas de saúde mental ou outras condições.
Atualização em 02/09/2021: estamos sempre buscando maneiras de ajudar mais nossa comunidade, e nos reunimos regularmente com os membros do nosso Conselho de Combate ao Suicídio e à Automutilação. Há algum tempo, consultamos esses especialistas sobre a forma certa de abordar um tipo específico de conteúdo que não viola nossas regras, mas que pode retratar ou banalizar temas ligados a suicídio, morte ou depressão. Os especialistas concordam que é importante permitir esse tipo de publicação, para que as pessoas possam falar sobre como estão se sentindo e seus familiares e amigos possam ajudar, mas também precisamos evitar que outras pessoas se deparem com o conteúdo potencialmente perturbador. É por isso que, em vez de remover esse conteúdo por completo, não vamos recomendá-lo em lugares como o Explorar, dificultando sua descoberta. Esperamos que isso nos ajude a encontrar o equilíbrio, e continuaremos a consultar os especialistas conforme mais pesquisas sobre esse tema forem realizadas.
Faremos tudo o que pudermos para manter as pessoas seguras no Instagram. Trabalhamos com especialistas para entender melhor as questões profundamente complexas de saúde mental, suicídio e automutilação, e aprender como apoiar da melhor forma as pessoas que são vulneráveis. No Instagram, todos nós levamos muito a sério essas questões. Fizemos progresso nos últimos anos e hoje estamos lançando mais tecnologia na Europa para ajudar em nossos esforços. Mas nosso trabalho aqui nunca termina. Buscamos constantemente maneiras de fazer mais.
Reconhecemos que essas são questões profundamente pessoais para as pessoas afetadas. São também questões complicadas e estão sempre em evolução. Por isso, continuamos a atualizar nossas políticas e nossos produtos para que possamos oferecer o melhor suporte à nossa comunidade. Nunca permitimos a promoção nem o encorajamento de suicídio ou autoagressão no Instagram. No ano passado, atualizamos nossas políticas para remover todo o conteúdo explícito envolvendo esse tipo de conteúdo. Também ampliamos nossas políticas para proibir representações fictícias, como desenhos, memes ou outras imagens, que mostrem materiais ou métodos associados a suicídio ou autoagressão.
Não é suficiente abordar essas questões difíceis apenas por meio de políticas e produtos. Também acreditamos que é importante fornecer ajuda e apoio às pessoas que estão enfrentando momentos difíceis. Oferecemos suporte às pessoas que procuram contas ou hashtags relacionadas a suicídio e autoagressão e as encaminhamos a organizações locais que podem ajudá-las. Também colaboramos com a Samaritans, uma instituição beneficente que trabalha com prevenção do suicídio. Eles desenvolveram diretrizes para o setor, que foram projetadas para ajudar plataformas como a nossa a encontrar o importante equilíbrio entre lidar com conteúdo prejudicial e fornecer fontes de apoio para quem precisa de ajuda.
Usamos uma tecnologia que nos ajudar a encontrar e remover proativamente conteúdo mais prejudicial sobre suicídio e autoagressão. Nossa tecnologia encontra publicações que possam conter conteúdo sobre suicídio e autoagressão e as envia a revisores humanos para tomarem a decisão final e as medidas necessárias. Essas medidas incluem remover o conteúdo, conectar a pessoa que o publicou a organizações locais que oferecem ajuda ou, nos casos mais graves, ligar para serviços de emergência. Entre abril e junho deste ano, mais de 90% do conteúdo sobre suicídio e autoagressão sobre o qual tomamos alguma medida foi encontrado por nossa própria tecnologia antes que alguém fizesse uma denúncia. No entanto, nosso objetivo é fazer com que esse número seja o mais próximo possível de 100%.
Até agora, só pudemos usar essa tecnologia para encontrar conteúdo sobre suicídio e autoagressão fora da União Europeia, o que dificultava encontrar esse tipo de conteúdo de forma proativa e enviar ajuda às pessoas. Tenho o prazer de compartilhar que estamos lançando parte dessa tecnologia na UE, que funcionará tanto no Facebook e quanto no Instagram. Agora, podemos procurar publicações que provavelmente violam nossas regras sobre suicídio e autoagressão e torná-las menos visíveis, removendo-as automaticamente de locais como Explorar. E quando nossa tecnologia detecta uma publicação que viola nossas regras, podemos removê-la automaticamente.
Esse é um passo importante para proteção de mais pessoas na UE. Mas queremos fazer muito mais. O próximo passo é usar nossa tecnologia não apenas para localizar conteúdo e torná-lo menos visível, mas também para enviá-lo aos nossos revisores humanos e conseguir ajuda para as pessoas que precisam, como fazemos em qualquer lugar do mundo. O fato de não termos essa medida implementada na UE torna mais difícil conectar as pessoas a organizações locais e serviços de emergência. Por exemplo, nos EUA, entre agosto e outubro, mais de 80% das contas encaminhadas a organizações locais e serviços de emergência foram detectadas pela nossa tecnologia proativa. Atualmente, estamos conversando com reguladores e governos sobre a melhor forma de levar essa tecnologia para a UE, respeitando as considerações de privacidade. Esperamos encontrar o equilíbrio certo para que possamos fazer mais. Essas questões são muito importantes para paramos por aqui.
Acreditamos que a aplicação de nossas políticas e medidas contra conteúdo prejudicial é nossa responsabilidade. A comunidade deve sentir que pode confiar em nosso trabalho. É por isso que publicamos regularmente Relatórios de Aplicação de Padrões da Comunidade. Neles, compartilhamos dados globais sobre a quantidade de conteúdo que viola nossos padrões sobre o qual estamos tomando medidas, além da porcentagem desse conteúdo que encontramos antes de ser denunciado. A linha do tempo a seguir descreve o progresso que fizemos no combate ao conteúdo relacionado com suicídio e autoagressão no Instagram, conforme mostrado por meio destes relatórios.
ARTIGOS RELACIONADOS