By 리처드 앨런, EMEA 공공 정책 부사장

점점 더 많은 의사소통이 디지털 형식으로 이루어지면서 그룹 간 대화, 방송, 문자, 동영상은 물론 이모지(emoji)에 이르기까지 모든 공개적인 대화가 온라인으로 이동하고 있습니다. 이러한 대화와 콘텐츠는 다양한 인간 경험을 반영합니다. 다양한 콘텐츠 중에는 계몽적이고 유용한 것도 있고, 유머와 즐거움을 제공하는 것도 있고, 정치적이고 종교적인 것도 있습니다. 일부 보고 싶지 않은 콘텐츠도 있을 수 있지만, 대부분의 커뮤니케이션 플랫폼 기업과 커뮤니케이션 시스템 기업이 책임감을 가지고 부단히 협력하여 이러한 류의 콘텐츠를 제한하고 있습니다.

Facebook도 예외가 아닙니다. 모든 아이디어를 수용하는 공개 플랫폼인 Facebook은 자기 표현과 타인과의 연결, 공유를 장려하고 있습니다. 사람들이 Facebook을 방문할 때 항상 환영받고 안전하다고 느낄 수 있기를 희망합니다. 그래서 Facebook은 타인에 대한 괴롭힘이나 따돌림, 위협을 제한하는 커뮤니티 규정을 만들었습니다.

하지만 특정인을 거명하지 않고 온라인에서 편파적 발언을 표현하면 어떻게 될까요? 특정 인종에 속한 모든 사람을 “폭력적 동물”이라고 말하거나, 특정 성적 취향에 대해 “역겹다”라고 표현하는 게시물은 심한 모욕감을 줄 수 있으며, 각 개인의 경험에 따라 위협을 느낄 수도 있습니다. 전 세계 많은 국가에서 이러한 종류의 공격을 편파적 발언(hate speech)이라고 부릅니다. Facebook은 모든 형태의 편파적 발언에 반대하며, Facebook 플랫폼에서는 이를 허용하지 않습니다.

이 게시물에서는 편파적 발언을 정의하고 이를 제거하는 법, 또한 글로벌 규모의 다양한 문화권에서 수십 개 언어로 편파적 발언에 대한 제한을 설정할 때 발생할 수 있는 일부 복잡한 문제에 대해 설명하고자 합니다. 다른 플랫폼과 마찬가지로 Facebook의 편파적 발언 제거 접근법은 커뮤니티와 해당 분야의 전문가들로부터 배우면서 지속적으로 발전하고 있습니다. 또한 기술의 진보와 함께 신속, 정확하게 대규모로 대응할 수 있는 새로운 도구가 확보되면서 접근법도 변화를 거듭하고 있습니다.

 

편파적 발언의 정의

편파적 발언을 중단시키는 첫 번째 과제는 편파적 발언의 경계를 정의하는 것입니다.

사람들은 자신의 경험과 의견을 공유하기 위해 Facebook을 방문하며 성, 국적, 민족 및 기타 개인적 특성이 콘텐츠의 일부가 되기도 합니다. 국가의 외교정책이나 특정 종교적 가르침의 도덕성에 대해 동의하지 않는 사람들도 있을 수 있으며, Facebook은 사람들이 Facebook에서 이런 문제에 대해 토론할 수 있기를 바랍니다. 하지만 그 과정에서 편파적 발언의 경계를 넘는 경우는 어떤 것일까요?

현재 편파적 발언은 “보호되는 특성” 즉 인종, 민족, 국적, 종교, 성적 취향, 성별, 성 정체성 또는 심각한 신체적 장애나 질병에 대해 타인을 직접 공격하는 콘텐츠로 정의되어 있습니다.

어떤 경우가 이 경계선을 넘는 것인지에 대한 보편적인 답변은 할 수 없습니다. 많은 국가가 편파적 발언을 반대하는 법을 갖고 있지만 그 정의는 매우 다양합니다.

예를 들어 독일에서는 증오를 선동하는 행위를 금지하며, 그러한 내용을 온라인에 게시하면 경찰의 단속을 받을 수 있습니다. 한편 미국에서는 매우 비도덕적인 표현까지도 미국 헌법에 따라 법적인 보호를 받습니다.

동일한 국가의 국민들 사이에서도 보호 특성에 관한 표현을 용납하는 수준이 서로 다른 경우가 많습니다. 종교 지도자에 대한 유머가 일부 사람들에게는 신성모독이자 해당 종교의 모든 신자들에 대한 편파적 발언으로 간주될 수 있습니다. 또한, 어떤 사람들 사이에서는 성별에 대한 놀림 대결이 서로 즐겁게 웃음을 나누는 방법이 될 수도 있습니다. 특정 국적의 사람들이 자기 나라 사람들에 대한 부정적 내용을 게시하는 것은 괜찮을까요? 인종 차별적 발언을 하면서 특정 인종 집단에 대해 언급하는 젊은이가 이 과정에서 노래 가사를 인용한다면 어떨까요?

이 분야에 관한 매우 중요한 학술 연구들이 진행 중이며 Facebook은 이에 긴밀하게 참여하고 있습니다. 예를 들어 Timothy Garton Ash는 여러 문화를 바탕으로 이러한 문제들을 살펴보기 위해 자유 발언 토론을 개최하였고, Susan Benesch는 언어와 폭력 간의 관계를 조사하기 위해 위험 발언 프로젝트를 진행했습니다. 이 프로젝트들은 온라인상의 편파적 발언의 경계를 정의하기 위해 수행할 일이 여전히 많이 남아 있다는 걸 보여주고 있습니다. Facebook은 우리의 정책을 더욱 개선하기 위해 이런 프로젝트에 지속적으로 참여할 것입니다.

 

Facebook 기울이고 있는 노력

Facebook은 편파적 발언을 발견할 때마다 삭제하기 위해 최선을 다하고 있습니다. 지난 두 달 동안 편파적 발언으로 신고된 게시물을 주당 평균 66,000건씩 삭제했으며, 전 세계적으로 월 288,000건에 달하는 편파적 발언을 삭제한 것입니다. (여기에는 편파적 발언으로 신고됐지만 다른 이유로 삭제되었던 게시물은 포함되며, 다른 이유로 신고됐으나 편파적 발언으로 판단돼 삭제한 게시물은 포함되지 않습니다.*)

하지만 분명히 Facebook의 정책 집행이 완벽하지는 않습니다. 정책에 따라 제대로 집행되는 경우가 대부분이나, 간혹 저희가 실수를 범할 때도 있습니다.

때로는 편파적 발언이기 때문에 명백히 삭제해야 하는 경우가 있습니다. 보호 특성에 대해 직접 폭력을 선동하거나 타인을 비하하거나 인간성을 파괴하기 때문입니다. 즉각적인 폭력 위협(보호 특성을 근거로 한 위협 포함)이 있다고 판단할 경우, 해당 내용을 현지 사법당국에도 보고합니다.

하지만 표현 자체가 애매하고 이면의 의도를 알 수 없거나 주변 맥락이 분명하지 않아서 명확히 의견 일치가 되지 않을 때도 있습니다. 언어는 계속 진화하며, 어제는 비방이 아니었던 단어가 오늘은 비방에 해당하는 단어가 될 수도 있습니다.

삭제할 것과 사이트에 그대로 남겨둘 것을 결정할 때 다음과 같은 사항들을 고려합니다.

 

전후 문맥을 이해하기

“burn flags not fags”라는 말이 무슨 의미일까요? 표면적으로는 분명히 도발적인 표현이지만, 혐오 표현으로 간주해야 할까요? 예를 들면 동성애자에 대한 공격일까요 아니면 비방 언어를 “재활용”하려는 시도일까요? 국기를 태워서 정치적 저항을 선동하는 것일까요? 아니면 영국인 연설자가 영국인들을 대상으로 사람들의 금연을 권장하려는 시도일까요(fag는 영국에서 담배를 의미하는 속어)? 이러한 경우, 해당 문구가 혐오 표현 위반인지 여부를 판단하기 위해서는 더 많은 문맥을 살펴봐야 합니다.

가장 대응하기 어려운 상황은 열띤 토론을 부추기며 격정적인 감정을 불러일으키려고 시도한 것으로 보이는 표현으로부터 시작됩니다. 이런 표현들은 전후 맥락(연설자나 청중의 국적 등)을 냉정하게 살피는 것이 더욱 중요합니다. 지정학적 사건을 고려할 필요가 있을 경우 지역 및 언어적 맥락을 고려하는 것이 중요한 경우도 많습니다. 예를 들어, 미얀마에서는 “kalar”라는 단어가 역사적으로 좋은 기원이 있으며, 지금도 많은 관련 버마 단어에서 악의적인 의미 없이 사용되고 있습니다. 하지만 이 단어는 불교도가 이슬람교도를 공격할 때와 같은 경우 선동적인 비방 언어로 사용될 수도 있습니다. Facebook은 단어의 사용이 진화해온 방식을 검토하고, 단어가 사람이나 집단을 공격하기 위해 사용될 때에만 혐오 표현으로 규정 및 삭제하고, 그 외 해롭지 않게 사용되는 경우에는 삭제 조치를 취하지 않는 정책일 펴고 있습니다. 물론, 맥락 전체를 이해해야 하는 어려움 때문에 최근 이 정책을 올바로 집행하는 데 어려움을 겪은 바 있었으나, 추가적인 노력을 기울이며 올바른 시행으로 이어질 수 있도록 노력하고 있습니다. 물론, 이는 Facebook이 장기적으로 해결해야 할 과제입니다.

러시아와 우크라이나에서도 양쪽 집단이 오랫동안 상대방을 묘사하기 위해 사용해왔던 속어 사용에 관하여 유사한 문제를 경험하였습니다. 우크라이나 사람들은 러시아 사람을 “moskal” (‘모스크바 사람’의 의미)이라 부르고, 러시아 사람은 우크라이나 사람을 “khokhol”(‘상투’라는 의미)이라고 부릅니다. 2014년에 이 지역에서 분쟁이 시작된 후, 양국 국민은 상대방이 해당 단어를 사용할 때 혐오 표현을 사용했다고 신고하기 시작했습니다. Facebook은 내부 검토 후 혐오 표현에 해당한다는 결론을 내리고 해당 단어를 사용한 게시물에 대한 제재를 내리기 시작했습니다. 처음에는 양측을 제한하는 것처럼 보여 큰 지지를 얻지 못했던 결정이었지만, 두 국가의 충돌과 관계된 맥락에서는 중요하게 느껴졌던 결정이었습니다.

가끔 정책 논쟁이 증오 표현에 관한 논쟁으로 비화되기도 하는데, 양측이 선동적인 언어를 사용하기 때문입니다. 예를 들면 동남아시아의 로힝야족(Rohingya), 유럽의 난민 유입 또는 미국의 이민자 유입과 관련된 이민 논쟁 같은 경우입니다. 이로 인하여 고유한 딜레마 상황에 처하게 되는데, 한편으로는 국가가 입국 허용 대상자를 결정하는 중요한 정책에 대한 대화를 나눈 것을 억압하고 싶지 않으면서도, 이와 동시에 이러한 논의가 누군가의 마음에 상처를 주고 모욕적일 때가 있다는 것도 고려해야 합니다.

최근 몇 년 동안 독일에 유입되는 이민자 수가 증가함에 따라, Facebook의 일부 게시물이 난민이나 이민자에게 직접적인 위협이 되고 있다는 피드백을 받았습니다. Facebook은 이러한 자료가 전 세계적으로 어떻게 나타나는지 조사하고, 이민자에 대한 폭력적 요구나 그들에 대한 비인간적 언급(예를 들어 동물, 오물 또는 쓰레기에 비유)을 삭제하는 새로운 지침을 마련하기로 결정했습니다. 하지만 사람들이 이민 자체에 대한 자신의 견해를 표현하는 기능은 그대로 두었습니다. 그리고 Facebook이 정당한 토론의 장으로 유지되도록 최선의 노력을 기울이고 있습니다.

 

의도

사람들의 Facebook 게시물은 친구들과의 광범위한 사회적 관계 맥락에서 존재합니다. 게시물이 혐오 표현 정책을 위반한 것으로 표시될 경우, 해당 문맥이 없으므로 공유하는 특정 문자나 이미지만을 바탕으로 판단할 가능성이 있습니다. 하지만 문맥은 사람의 의도를 나타낼 수 있으며, 무언가 혐오 표현이 신고될 때 문맥이 중요한 역할을 할 수 있습니다.

누군가가 달리 혐오 표현으로 간주할 수 있는 것을 공유하지만 거기에 혐오 의도가 없을 수도 있는데, 예를 들면 자학적 농담을 하거나 노래의 가사를 인용하는 경우 등입니다. 사람들은 가끔 혐오 표현을 하기 위해 풍자나 코미디를 사용하기도 합니다.

또는 다른 사람이 불쾌한 언어를 사용하는 것을 비난함으로써 증오에 대한 반대를 표현할 수 있는데, 이런 경우 원래의 불쾌한 해당 표현을 그대로 반복하는 것이 필요할 수도 있습니다. 이 경우 일부 사람들이 불쾌한 내용을 접하게 되기 때문에 논란의 소지가 있을 수 있지만, Facebook이 허용하는 사례에 해당합니다. 하지만 이를 통해 Facebook 커뮤니티에서 혐오스런운 의견에 대해 반대할 기회가 제공되기도 합니다. 혐오를 비난하기 위해 무언가 공유하는 것을 장려할 목적으로 커뮤니티 규범을 개정하였지만, 때로는 의도가 명확하지 않아서 혐오를 반대하는 게시물이 실수로 삭제되기도 합니다.

한편 사람들은 자신이 공격받을 때 사용되었던 불쾌한 용어를 재활용할 수도 있습니다. 어떤 사람이 불쾌한 용어를 자기 참조적 방식으로 사용하면 공격할 때 사용되었던 동일한 용어와는 매우 다른 느낌을 받을 수 있습니다. 예를 들어 “레즈비언”(dyke)이라는 단어를 동성애자를 공격하기 위해 사용한다면 혐오 표현으로 간주될 수 있습니다. 하지만 누군가가 자신의 사진과 함께 #dyke 표현을 게시한다면 이것은 허용됩니다. 또 하나의 예로서 “faggot”(남자 동성애자)이라는 단어가 있습니다. 이 단어를 사람을 대상으로 사용하면 혐오 표현으로 간주될 수 있지만, 이탈리아에서는 지역에 따라 LGBT 활동가들이 동성애 혐오증을 비난하기 위해 “frocio” (“faggot”)라는 단어를 사용합니다. 이런 경우에 해당 콘텐츠를 삭제한다면 Facebook에서 개인의 의사 표현 능력을 제한하는 것이 될 수 있습니다.

 

실수

여러분이 혐오 표현으로 생각하여 신고한 콘텐츠를 삭제하지 않을 경우, Facebook이 커뮤니티 규정의 가치를 준수하지 않는다고 느낄 수도 있습니다. 또한 여러분이 합리적인 정치적 견해라고 생각하는 게시물을 삭제한다면 검열이라고 느낄 수도 있습니다. Facebook이 그러한 실수를 하면 사람들이 어떤 강렬한 감정을 품게 되는지 인식하고 있으므로, 프로세스를 개선하고 상황을 보다 완전하게 설명하기 위해 지속적으로 노력하고 있습니다.

Facebook의 실수가 다수의 커뮤니티에서 우려를 낳은 경우가 있었습니다. 이 경우, 해당 커뮤니티들은 Facebook이 편견을 바탕으로 그러한 실수를 저질렀다고 생각하는 경우가 포함돼있습니다. 우리는 편견이 존재하는 모든 곳에서 편견에 대응하고 맞서기 위해 최선의 노력을 기울이고 있습니다. 동시에 실수가 발생할 경우 신속히 바로잡기 위한 노력도 하고 있습니다.

작년에 저명한 아프리카계 미국인인 Shaun King이 자신이 받았던 저속한 비방 내용이 담긴 증오 우편물을 게시하였습니다. Facebook은 실수로 King의 게시물을 삭제하였는데, 처음에는 공격을 비난할 목적으로 공유한다는 사실을 인식하지 못했기 때문이었습니다. 이후 Facebook은 실수를 깨닫고 게시물을 복구하고 사과의 말을 전했습니다. 지금도 이러한 실수로 인해 관련된 사람들의 기분을 언짢게 하거나, Facebook이 달성하고자 노력하고 있는 목표에 반하는 행동이라는 점을 저희는 분명히 인식하고 있습니다.

 

지속적인 개선

사람들은 ‘인공 지능이 이 문제를 해결할 수 있습니까?’라고 자주 묻습니다. Facebook의 개선 노력에서 이러한 기술은 중요한 역할을 차지할 것입니다. 예를 들어 유해한 언어인 것이 명확한 경우 게시물을 탐지해 자동으로 블라인드 처리하는 방법이 실험 중에 있습니다. 하지만 이렇게 유망한 기술에 대한 지속적으로 투자에도, 혐오 표현의 평가와 관련된 복잡성을 취급할 때 머신러닝과 인공지능에 전적으로 의존하기에는 시기상조입니다.

이러한 이유로, Facebook은 잠재적 혐오 표현을 식별하고 제재함에 있어 커뮤니티에 크게 의존하고 있습니다. Facebook 플랫폼에는 수십억 건의 게시물이 있고 신고된 게시물의 의미와 의도를 평가하기 위해서는 문맥을 이해해야 하기 때문에, 정상적 의견 표시와 혐오 표현 간의 경계선을 넘어서는 게시물을 신뢰성 있게 찾아서 자동으로 구별하는 완벽한 도구와 시스템은 아직 구축되지 않았습니다. Facebook의 모델은 플랫폼에 있는 모든 사람들의 눈과 귀를 바탕으로 매주 다양한 잠재적 위반 게시물 수백만 건을 자발적으로 신고해 주는 것을 기반으로 하고 있습니다. 그리고 광범위한 언어적 전문지식을 보유하고 시간대별로 24시간 업무를 수행하는 Facebook CO(Community Operation)팀이 Facebook 혐오 표현 정책을 적용하여 이러한 신고들을 검토하고 있습니다. Facebook은 신고된 콘텐츠를 취급하는 CO팀을 강화하고 있으며, 현재 4,500명 수준에서 내년에는 3,000명을 증원할 예정입니다. 그리고 현지의 상황과 변화하는 언어에 대해서 지속적인 학습을 계속해 나갈 것입니다. 측정과 신고는 혐오 언어 대응에서 매우 중요한 부분이기 때문에 대중들과 의미 있는 데이터를 획득하고 공유할 수 있는 효과적 방법을 모색하고 있습니다.

지금까지 이와 같은 방식으로 글로벌 커뮤니티를 관리한 적이 없었으며 해야 할 일이 많다는 것도 알고 있습니다. 따라서 개별 게시물뿐 아니라 전반적인 Facebook의 선택과 정책에 대해 논의하고 설명하는 방법을 개선하기 위해 노력하고 있습니다.

 

당사의 새로운 블로그 시리즈 Hard Questions 관하여 읽어보세요. 저희 대처해야 사안과 있는 분야에 대한 의견을 hardquestions@fb.com으로 보내주세요.

*각주: 수치의 의미:

  • 2017 4월과 5 평균치
  • 이유와 상관 없이 혐오 표현으로 신고돼 추후 삭제된 콘텐츠
  • Facebook 개별 게시물에 대한 신고에 따른 수치
  • Instagram에서 삭제된 혐오 표현 포함되지 않음
  • 전체 페이지나 그룹 또는 프로필을 삭제하거나 사용하지 못하게 함으로써 일괄 삭제된 혐오 표현 관련 게시물은 포함되지 않음. , 혐오 그룹에는 다수의 혐오 표현에 관한 개별 항목이 포함될 있기 때문에 실제보다 훨씬 적게 반영됐을 가능성 있음
  • 다른 이유로 보고되었던 혐오 표현은 포함하지 않음
    • 스팸 링크를 클릭하도록 유도하기 위해 충격적인 표현을 사용할 있는데, 현재의 정의로는 이것이 스팸으로 보고될 경우 혐오 표현으로 추적하지 않음
    • 게시물이 외설 또는 괴롭힘으로 보고되었지만 혐오 표현으로 삭제된 경우 해당 수치에 포함되지 않음
  • 증오 관련 게시물로 신고됐으나 다른 이유로 삭제되었던 콘텐츠가 포함됐을 있음
    • 게시물이 혐오 표현으로 신고됐지만 외설 또는 괴롭힘으로 삭제되었다면 해당 수치에 포함됨
  • Facebook 실수로 삭제한 경우 포함될 있음
  • 오프라인 사건(: 테러 공격의 여파) 또는 온라인 사건(: 스팸 공격 ) 때문에 시간 경과에 따라 수치가 크게 변할 있습니다.
  • 보다 의미 있고 정확한 데이터를 확보할 목적으로 보고 삭제 내용을 기록하기 위해 효율적인 프로세스를 모색하고 있습니다.