2021년 9월 30일 업데이트: 이 아티클의 정보는 최신 정보가 아닐 수 있습니다. Instagram의 자살 및 자해 콘텐츠 감지 기술에 관한 최신 정보를 보려면 안전 센터를 방문하세요. 안전 센터에 설명된 바와 같이, Instagram의 알고리즘은 잠재적인 자살 및 자해 콘텐츠를 식별하는 용도로 설계되었으며 정신 건강 또는 그 밖의 건강 상태를 진단하거나 질병을 치료하는 용도로 설계되지 않았습니다.
Instagram 사용자를 안전하게 보호하는 것보다 더 중요한 일은 없습니다. 특히 가장 취약한 사람들을 보호하는 것이 정말 중요하죠. 자살과 자해는 어렵고도 복잡한 주제로, 당연히 많은 사람들이 큰 관심을 가지고 있습니다. 복잡한 문제이기 때문에 어떻게 접근하는 것이 가장 좋은지에 대한 의견도 분분합니다. 자살과 자해는 그만큼 중요한 사안이며, 아이를 둔 부모로서 개인적으로도 가슴에 와닿는 문제입니다.
먼저, 이 어려운 문제를 겪고 있는 당사자와 그 가족분들, 그리고 친구분들께 위로의 말씀을 전합니다. 어떤 일을 겪고 계실지 저는 감히 상상도 할 수 없습니다. 그리고 제 개인적인 걱정만으로는 문제가 해결되지 않는다는 점을 잘 알고 있습니다. Instagram은 플랫폼을 사용하는 모든 분들, 특히 자살 및 자해의 위험에 노출될 수 있는 사람들을 안전하게 지키기 위해 필요한 모든 조치를 취할 의무가 있습니다.
온라인 커뮤니티에 관해 서로 상충되지만 그 어느 쪽도 틀리지 않은 두 가지 사실이 있습니다. 먼저, 안타깝게도 일부 청소년들이 온라인에서 본 내용에 부정적으로 영향을 받아 자신을 해칠 수 있습니다. 이것은 실재하는 위험입니다.
하지만 한편으로는 자신이 겪고 있는 어려움과 관련하여 도움을 받기 위해 온라인 공간을 활용하는 청소년들도 많이 있습니다. 다 나은 상처의 모습을 공유하거나 섭식 장애를 이겨낸 경험을 이야기하는 사람들을 예로 들 수 있죠. 이러한 온라인 지원 네트워크가 자신과 같은 경험을 한 다른 사람들을 찾을 유일한 수단인 경우도 많습니다.
영국의 Samaritans와 미국의 National Suicide Prevention Line 같은 정신 건강 단체와 학계의 전문가들로부터 얻은 조언을 바탕으로 Instagram은 어렵겠지만 두 가지 조치의 균형을 맞춰보려고 합니다. 바로, 사람들이 정신 건강과 관련하여 자신의 경험을 공유할 수 있도록 허용하는 조치와 다른 사람들이 잠재적으로 유해한 콘텐츠에 노출되지 않도록 보호하는 조치 간의 균형 말입니다.
Instagram은 어떤 사람들에게는 도움이 되는 콘텐츠가 또 어떤 사람들에게는 유해할 수 있다는 점을 잘 알고 있습니다. 자살이나 자해 관련 문제를 겪은 청소년들은 똑같은 이미지를 봐도 어떤 날에는 도움이 되었다가 다른 날에는 자극적이었다고 말했습니다. Instagram이 자해 또는 자살을 부추기거나 그러한 행위를 옹호하는 콘텐츠의 공유를 허용하지 않는 것은 바로 이 때문입니다. 저희는 단 한 번도 이러한 콘텐츠를 허용한 적이 없습니다.
올해 초, Instagram은 자살 및 자해와 관련된 콘텐츠에 대한 접근 방식을 강화했습니다. 2월에는 자해와 관련된 자극적인 이미지를 금지하고 해당 유형의 콘텐츠를 찾아 조치를 취하기 위한 새로운 기술을 개발했습니다. 이와 더불어 이러한 콘텐츠와 해당 콘텐츠를 공유하는 계정이 추천되지 않도록 했습니다.
그 결과, 전보다 두 배 더 많은 콘텐츠에 대해 조치를 취할 수 있었습니다. 정책을 변경하고 이어진 세 달 동안 Instagram은 834,000개가 넘는 콘텐츠를 삭제하거나 노출률을 줄이거나 콘텐츠에 민감한 콘텐츠 경고 화면을 추가했습니다. 저희는 이러한 콘텐츠의 77% 이상을 신고가 들어오기 전에 찾아낼 수 있었습니다. 의미 있는 진전이지만 이 문제를 해결하기 위한 노력은 계속될 것입니다.
지난달에는 더 많은 유형의 자해 및 자살 콘텐츠가 금지되도록 정책을 더욱 확대했습니다. 이에 따라 자극적인 이미지를 사용하는 영화나 만화 속 그림, 밈, 콘텐츠 등 자해 또는 자살을 나타낸 허구적인 묘사가 더 이상 Instagram에서 허용되지 않습니다. 자해 또는 자살을 보여주지는 않지만 이와 연관된 자료나 방법을 포함하는 기타 이미지도 삭제됩니다.
또한 해당 유형의 콘텐츠를 공유하는 계정은 검색 결과나 탐색 탭과 같은 발견 위치에서 추천되지 않습니다. 이에 더해 영국의 Samaritans 및 PAPYRUS나 미국의 National Suicide Prevention Lifeline 및 The Trevor Project 같은 현지 상담 기관과 함께 더 많은 사람에게 더 많은 리소스를 보낼 예정입니다.
이는 어떤 한 회사나 정책 및 업무 방식만으로 해결할 수 없는 복잡한 문제입니다. 저는 Instagram에서 자살 또는 자해 콘텐츠를 일부라도 왜 허용하느냐는 질문을 자주 받습니다. 전문가들에 따르면 가장 힘들었던 순간과 각자의 회복 이야기를 공유할 기회를 마련하면 사람들이 힘을 얻는 데 큰 도움이 될 수 있다고 합니다. 따라서 관련 콘텐츠를 공유하지 못하게 막으면 정신 건강 문제에 낙인을 찍는 조치가 될 뿐만 아니라 주변 사람들이 도움 요청을 알아채고 적절하게 대응하지 못하게 될 수도 있습니다.
하지만 적절한 접근 방식을 마련하려면 정책을 한 번 변경하거나 사용 중인 기술을 일회성으로 업데이트하는 것 이상의 조치가 필요합니다. 이 문제를 해결하기 위한 Instagram의 노력은 계속될 것입니다. Instagram의 정책과 기술은 새로운 트렌드가 부상하고 사람들의 행동이 변하면서 이에 맞게 개선되어야 합니다.
새로운 트렌드나 문화적 뉘앙스를 계속해서 파악하기 위해 Instagram은 자살 및 자해 문제 전문가 및 학계와 매달 모임을 가집니다. 또한 스웨덴의 정신 건강 단체인 MIND와 협력하여 기술 및 소셜 미디어가 청소년들의 삶에서 어떤 역할을 하고 있는지도 파악하고 있습니다. 영국에서는 Samaritans와 함께 고통받는 사람들을 돕기 위한 새로운 가이드라인을 세우기 위해 업계 차원의 노력을 이어 나가고 있습니다.
유럽 밖에서는 도움이 필요한 사용자들을 사전에 찾아내는 데 도움이 되는 추가적인 기술도 활용하고 있습니다. Instagram은 이러한 기술을 유럽에 도입하고 싶지만 유럽 연합(EU) 법률에 따라 고려해야 할 중요한 법적 사안들이 있어 현재 유럽의 규제 기관 담당자들과 협의 중입니다.
자신에게 해를 가하는 사람들과 Instagram 플랫폼에서 본 콘텐츠에 영향을 받았을 가능성이 있는 사람들에 대한 이야기가 들릴 때마다 Instagram은 많은 청소년이 온라인과 오프라인에서 겪고 있는 어려움에 대해 다시금 생각해 보게 됩니다. Instagram은 모두가 더 안전하게 즐기는 플랫폼을 만들기 위해 계속해서 노력하는 동시에 사람들이 가장 필요로 할 때 진정한 도움이 되는 지원을 받을 수 있도록 조치를 취할 것입니다.
애덤 모세리, Instagram 대표
관련 아티클