Atualização de 30/09/2021: as informações neste artigo podem estar desatualizadas. Para obter informações atuais sobre nossa tecnologia de detecção de conteúdo relacionado a suicídio e automutilação, acesse a Central de Segurança. Conforme descrito na Central de Segurança, nossos algoritmos têm o objetivo de ajudar a identificar possível conteúdo sobre suicídio e automutilação, não de diagnosticar nem tratar problemas de saúde mental ou outras condições.
Para mim, nada é mais importante do que a segurança das pessoas que usam o Instagram, principalmente as mais vulneráveis. Suicídio e automutilação são tópicos difíceis e complexos com os quais as pessoas se preocupam profundamente. Essas questões são complicadas e existem muitas opiniões sobre a melhor forma de abordá-las. No entanto, são importantes e, para mim, como pai, certamente são fundamentais.
Em primeiro lugar, penso nas pessoas que estão lidando com essas questões difíceis, bem como em seus familiares e amigos. Não consigo imaginar pelo que estão passando. Também reconheço que simplesmente pensar nessas pessoas não é suficiente. No Instagram, devemos a todos que usam nossa plataforma (especialmente aqueles que podem estar em risco de suicídio e automutilação) fazer tudo o que pudermos para mantê-los em segurança.
Existem duas verdades conflitantes sobre as comunidades online. Primeiro, a trágica realidade é que alguns jovens são influenciados de forma negativa pelo que veem online. Em consequência disso, podem se machucar. É um risco real.
Ao mesmo tempo, muitos jovens estão usando a internet para obter apoio para as dificuldades que enfrentam. Por exemplo, compartilham cicatrizes curadas ou falam sobre a recuperação de um distúrbio alimentar. Muitas vezes, essas redes de apoio online são a única maneira de encontrar outras pessoas que compartilharam as mesmas experiências.
Com base em orientações especializadas de acadêmicos e organizações de saúde mental, como a Samaritans no Reino Unido e a National Suicide Prevention Line nos EUA, queremos encontrar o difícil equilíbrio entre permitir que as pessoas compartilhem experiências de saúde mental e, ao mesmo tempo, proteger outras pessoas de serem expostas a conteúdo potencialmente prejudicial.
Entendemos que o conteúdo que pode ser útil para alguns pode ser prejudicial para outros. Em minhas conversas com jovens que enfrentaram esses problemas, ouvi que a mesma imagem pode ser útil para alguém um dia, mas um gatilho no outro. É por isso que não permitimos que as pessoas compartilhem conteúdo que incentive ou promova a automutilação ou o suicídio. Isso nunca foi permitido.
No início deste ano, reforçamos nossa abordagem sobre conteúdo relacionado a suicídio e automutilação. Em fevereiro, proibimos imagens gráficas de automutilação e criamos uma nova tecnologia para localizar e agir em relação a esse tipo de conteúdo. Além disso, temos trabalhado para garantir que esse tipo de conteúdo e as contas que o compartilham não sejam recomendados.
Como resultado, foi possível agir em relação ao dobro de conteúdo do que antes. Nos três meses seguintes à mudança de política, removemos, reduzimos a visibilidade ou adicionamos telas de sensibilidade a mais de 834 mil conteúdos. Conseguimos encontrar mais de 77% desse conteúdo antes de ser denunciado para nós. Embora seja um progresso, sabemos que esse trabalho nunca termina.
No mês passado, expandimos ainda mais nossas políticas para proibir mais tipos de conteúdo relacionado a automutilação e suicídio. Não permitiremos mais representações fictícias de automutilação ou suicídio no Instagram, como desenhos, memes ou conteúdo de filmes ou quadrinhos que usam imagens gráficas. Também removeremos outras imagens que podem não mostrar automutilação ou suicídio, mas incluem materiais ou métodos associados.
Contas que compartilham esse tipo de conteúdo também não serão recomendadas na pesquisa ou em plataformas de descoberta, como o Explorar. Também enviaremos às pessoas mais recursos com linhas de apoio localizadas, como Samaritans e PAPYRUS no Reino Unido e National Suicide Prevention Lifeline e The Trevor Project nos Estados Unidos.
Essas são questões complexas que nenhuma empresa ou conjunto de políticas e práticas pode resolver sozinho. Muitas vezes me perguntam por que permitimos qualquer conteúdo relacionado a suicídio ou automutilação no Instagram. Os especialistas nos dizem que dar às pessoas a chance de compartilhar seus momentos mais difíceis e as histórias de recuperação pode ser uma forma vital de apoio. Impedir que as pessoas compartilhem esse tipo de conteúdo pode estigmatizar tais problemas de saúde mental, além de impedir que entes queridos identifiquem e respondam a um pedido de ajuda.
Entretanto, acertar nossa abordagem requer mais do que uma alteração em nossas políticas ou uma atualização única na tecnologia. Nosso trabalho nessa área nunca está concluído. Nossas políticas e tecnologias precisam evoluir à medida que surgem novas tendências e mudam os comportamentos.
Para nos ajudar a ficar atentos às novas tendências ou nuances culturais, nos reunimos todos os meses com acadêmicos e especialistas em suicídio e automutilação. Também estamos trabalhando com a MIND, uma organização sueca de saúde mental, para entender o papel que a tecnologia e as redes sociais têm na vida dos jovens. No Reino Unido, estamos trabalhando com a Samaritans em um esforço de todo o setor a fim de definir novas diretrizes para ajudar pessoas que estão sofrendo.
Fora da Europa, também temos uma tecnologia adicional para encontrar proativamente pessoas que possam precisar de ajuda. Queremos levá-la para a Europa, mas há importantes considerações jurídicas no âmbito da legislação da UE. Por isso, estamos trabalhando com nosso regulador europeu.
Sempre que ouvimos sobre alguém que está se mutilando e que pode ter sido influenciado pelo que viu em nossas plataformas, somos lembrados das dificuldades que muitos jovens enfrentam online e offline. Continuaremos trabalhando para manter todos em segurança no Instagram e, ao mesmo tempo, possibilitar que as pessoas tenham acesso a um apoio que pode fazer a diferença no momento em que mais precisam.
Adam Mosseri, diretor do Instagram
ARTIGOS RELACIONADOS