By Guy RosenVP of Product Management

저희는 종종 Facebook에 어떤 내용을 허용할지를 어떻게 결정하는지, 그리고, 유해한 콘텐츠는 얼마나 있는지에 대한 질문을  받습니다.  몇 해전부터 저희는 Facebook에서 어떤 게시물을 허용하고 어떤 게시물을 금지하는지를 설명하는 커뮤니티 규정을 지켜왔고, 3주 전에는 이를 판단하는데 필요한 세부 가이드라인을 처음으로 공개한 바 있습니다. 오늘은 이에 이어, Facebook의 성과를 여러분이 직접 평가하실 수 있도록 커뮤니티 규정 시행 보고서를 통해 관련된 여러 수치를 공개하고자 합니다.

또한 Facebook의 데이터 분석 부문 부사장 알렉스 슐츠(Alex Schultz)는 Hard Questions 게시물과 커뮤니티 규정 시행 보고서의 서두에서 Facebook의 콘텐츠 관리 현황을 측정하는 방식을 공개했습니다. 다만 한 가지 강조드리자면, 이 모든 일이 여전히 진행 중에 있기 때문에 어떤 점이 중요하고 어떤 조치가 효과가 있는지에 따라 오늘 안내해드리는 방법론이 향후에 더 업데이트 될 수도 있음을 미리 말씀드리고 싶습니다.

이 보고서는 2017년 10월부터 2018년 3월까지 폭력적인 이미지, 성인의 나체 이미지 및 성적 행위, 테러 선동, 혐오 발언, 스팸, 허위 계정 등 6개 부문에 걸쳐 이뤄진 조치에 대한 내용을 포함합니다. 이 보고서에는 다음의 수치 자료가 포함되어 있습니다.

  • Facebook 규정에 위배되는 콘텐츠를 사람들이 본 횟수
  • Facebook이 삭제한 콘텐츠의 수
  • Facebook 사용자가 문제를 신고하기 전에 Facebook 기술을 통해 사전에 감지된 콘텐츠의 수

유해 콘텐츠 삭제 조치 중 가장 많이 것은 허위 계정과 이런 계정들이 올리는 대량 스팸과 관련된 부분입니다. 여기에는 아래의 내용이 포함됩니다.

  • Facebook은 2018년 1분기 동안 8억 3700만 개의 스팸을 삭제했습니다. 이 중 사용자가 신고하기 전 저희가 먼저 적발한 스팸은 거의 100%에 달합니다.
  • 스팸 퇴치의 핵심은 스팸을 뿌리는 허위 계정을 없애는 것입니다. 올해 1분기에 Facebook은 5억 8300만 개의 허위 계정을 비활성화하였으며, 이 중 대부분은 회원 가입 후 몇 분내에 비활성화되었습니다. 더불어, Facebook에 애초에 가입하지 못하도록 차단되는 허위 계정도 매일 수백만 개에 달합니다. 전반적으로  해당 기간에 파악한Facebook 계정 중 약 3~4%는 여전히 허위 계정일 것으로 추정하고 있습니다.

다른 유형의 규정 위반 콘텐츠에 대해 수행한 조치는 다음과 같습니다.

  • 2018년 1분기 동안 성인 나체 이미지 또는 음란물 2100만 개를 삭제했습니다. 이 중 사용자의 신고 전 당사의 기술로 적발한 콘텐츠는 96%입니다. 전반적으로, Facebook에서 조회된 콘텐츠 10,000개 당 7~9개는 여전히 Facebook의 성인 나체 이미지 및 음란물 기준을 위반하는 것으로 추정하고 있습니다.
  • 폭력적인 이미지 및 혐오 발언 같은 심각한 문제의 경우, 아직 기술만으로 완전히 처리하지 못하는 부분이 있어Facebook 검수 팀의 확인이 필요합니다. Facebook은 2018년 1분기 동안 약 350만 개의 폭력적인 콘텐츠를 삭제하거나 경고 대상으로 표시했습니다. 이 중 사용자 신고 접수 이전에 저희 기술을 통해 확인한 콘텐츠는 86%입니다. 이와 비교해, Facebook은 2018년 1분기 동안 250만 개의 혐오 발언 콘텐츠를 삭제했으며, 이중 저희 기술을 통해 적발한  콘텐츠는 38%입니다.

F8에서 마크 저커버그가 이야기했듯, 플랫폼의 오남용을 방지하기 위해 저희가 해야 할 일은 아직도 많습니다. 인공 지능 기술이 매우 빠르게 발전하고 있지만, 인공 지능으로 유해 콘텐츠를 효과적으로 차단하기까지 여전히 시간이 필요한 이유는 어떤 게시물에서 맥락이 차지하는 부분이 매우 크기 때문입니다. 예를 들어, 아직까지 인공 지능은 누군가가 실제로 혐오 발언을 한 것인지, 아니면 어떤 문제에 대한 경각심을 일으키기 위해 자신이 겪은 일을 설명하는 것인지를 명확히 판단할 수 없습니다. 그리고 제가 지난 주에 설명드렸듯이, 기술을 통해 유의미한 행동 패턴을 감지하려면 방대한 양의 교육 데이터가 필요하며, 사용도가 낮은 언어나 신고율이 낮은 사례는 정보가 부족할 때가 많습니다. 그뿐 아니라, 스팸, 음란물 또는 허위 계정 등 여러 부문에 걸쳐 Facebook의 통제를 피하기 위해 계속해서 교묘하게 전술을 바꾸는 세력이 있기 때문에, Facebook 또한 이들에 대한 차단책을 이행하는 동시에 지속적인 업그레이드도 도모해야 합니다. 모두에게 더욱 안전한 Facebook을 만들기 위해 저희가 더 많은 인재와 기술 개발에 집중 투자하는 이유가 여기에 있습니다.

오늘 이 수치와 정보들을 말씀드리는 이유도 마찬가지입니다. 스스로 투명성을 높일 수록 더 무거운 책임감을 가질 수 있다고 믿기에, 오늘 이 정보를 공개하는 것이 Facebook이 더 빠르게 개선을 이뤄나가는데 도움이 될 것이라 생각합니다. 오늘 공개한 내용은 저희 내부에서 관련업무의 진척도를 파악하는 사용한 것과 동일한 데이터이며, 이제 여러분이 직접 자료를 통해 저희가 지금까지 해온 노력의 결과를 판단하실 수 있습니다. 여러분의 다양한 의견을 기다리겠습니다.