소셜미디어: 페이스북이 미얀마에 불러온 참극

. Image copyright Getty Images

인종 종교 갈등. 인터넷의 급속한 확산. 악플 대응 능력이 없었던 회사.

미얀마 내 로힝야족을 상대로 벌어진 처참한 비극의 서막이었다.

'페이스북이 곧 뉴스인 그곳'

사용 기기에서 미디어 재생이 지원되지 않습니다
미얀마가 BBC에 보여주지 않으려 했던 로힝야 마을

인터넷은 모든 것을 바꿔놓았다.

미얀마 내 인종 집단들의 상생을 목표로 하는 시너지(Synergy)의 텟 스웨이 윈 소장은 '군부 독재 시절이었던 5년 전만해도 국민들이 정보를 접할 경로가 많이 없었다'고 말했다.

이어 그는 '매우 제한적인 정보만 접하며 살던 국민들이 2013년부터 아웅산 수치의 석방, 새로운 정권의 수립 등의 과정을 거치며 페이스북을 포함한 다양한 인터넷 문명을 맞이했다'고 덧붙였다.

"지금은 모두가 인터넷을 사용해요."

BBC 미디어 액션의 엘리자베스 메런은 이러한 변화가 일반인의 삶에 커다란 변화를 불러왔다고 말했다.

"예전에는 심 카드가 $200불 정도였어요."

"근데 2013년 규제가 풀리면서 가격이 $2로 떨어졌어요. 누구나 인터넷을 사용할 수 있게 된 거죠."

휴대전화 및 심 카드 수요가 늘어나며 함께 페이스북 수요도 치솟기 시작했다.

구글과 같은 경쟁사는 버마어 서비스를 지원하지 않았기 때문이다.

"사람들이 스마트폰을 사러 가요. 그리고 페이스북 앱이 다운될 때까지 가게를 떠나지 않아요. 그 정도였어요."

페이스북은 곧 미얀마 내 독보적인 SNS 플랫폼이 됐다.

'선동'에 취약했던 국민들

하지만 그것이 문제의 시작이었다.

텟 스웨이윈은 미얀마 국민들이 인터넷 세상 자체에 대한 경험이 없어 선동과 선전에 취약한 상태로 페이스북을 접했다고 설명했다.

"인터넷 독해력이 없었던 거죠."

"인터넷을 어떻게 써야 하는지, 어떤 뉴스를 걸러야하는지, 어떻게 효과적으로 써야 하는지 몰랐던 거에요. 아무런 지식도 없었어요."

페이스북은 무기가 되어 방아쇠를 당겼다

미얀마 5천만 국민 중 1천 8백만은 정기적으로 페이스북을 사용한다.

이들 중 누군가는 버마족이고, 또 다른 누군가는 로힝야족이다.

버마족과 로힝야족은 깊고 피로 얼룩진 갈등의 중심에 있다.

Image copyright Reuters

버마족이 주를 이루는 미얀마 정부는 2012년부터 로힝야족을 추방하고, 격리하고, 심지어 대규모 학살을 자행했다는 혐의를 받고 있다.

이로 인해 수년간 수십만 명의 로힝야족이 조국을 떠나 난민 자격으로 살아가고 있다.

한 땅 아래 공존하던 두 민족의 갈등은 페이스북의 보급과 함께 더 짙어졌다.

실제 세상에 고함과 욕설로 존재하던 증오는 페이스북이라는 공간을 통해 명문화됐다.

로힝야족 혐오 게시물은 혐오와 악의의 좋아요, 공유를 타고 경계와 규제 없이 퍼졌다.

증오를 투약받은 일부 국민들은 화를 주체하지 못하고 인종청소를 직접 개시하거나 지지하기 시작했다.

'괴물'이 되어버린 페이스북

Image copyright PA
이미지 캡션 유엔은 올해 초 페이스북이 미얀마 내 로힝야족 탄압 문제에 '결정적인 역할'을 했다고 밝혔다

페이스북은 로힝야족 혐오를 방관했다.

유엔은 올해 초 페이스북이 미얀마 내 로힝야족 탄압 문제에 '결정적인 역할'을 했다고 밝혔다.

미얀마 인권 특별 보고관 양히 리는 페이스북이 '괴물'이 되어버렸다고 말했다.

"인정하기 두렵지만, 페이스북이 괴물이 되어버린 게 아닐까 생각합니다. 애초 설립 의도와는 다르게요."

지난 8월, 로이터 조사 위원회는 페이스북에 1,000건이 넘는 로힝야와 무슬림들을 향한 인신공격과 부적절한 사진들을 발견했다.

사건을 담당했던 스티브 스텍로우 기자는 결과에 매우 놀랐다고 말했다.

"솔직히 말해서 많아야 몇 백 개 정도 찾을 줄 알았어요."

"너무 끔찍해서 더 볼 수가 없었죠. 사람들이 '괜찮아? 조금 쉴래?'라고 물어볼 정도였으니까요."

"페이스북에 이 결과를 보낼 때도 이메일을 통해 경고했어요. 미리 경고하지만 아주 끔찍하다고요."

"경악스러웠던 점은 이 사진 중 일부는 5년 동안 아무런 제재 없이 그냥 올라와 있었다는 거에요. 저희가 8월에 발견하기 전까지는요."

게시물과 사진 중 일부는 로힝야를 개, 돼지 등으로 묘사하고 있었다.

"비인간적인 집단이에요. 인종청소가 벌어지는 경우에는 보통 소란이나 항의도 없어요. 아예 인간 취급을 하지 않으니까요."

페이스북은 왜 아무것도 하지 못했나?

Image copyright Reuters

로이터 조사팀이 찾아낸 사진들은 분명 페이스북의 가이드라인에 위배되는 것들이었다.

그런데 왜 페이스북은 이들을 규제하고 삭제하지 않은 것일까?

로이터 조사팀은 우선 페이스북이 단어 해독에 어려움을 겪었을 가능성을 제시했다.

한 예로 무슬림을 향한 인종차별적 단어인 칼랄(kalar)은 동시에 '병아리콩'이라는 의미도 있다.

또 조사팀은 소프트웨어의 문제점도 지적했다.

대부분 국민들이 가지고 있던 휴대전화로는 페이스북의 게시물 신고 가이드라인을 제대로 읽을 수 없었다.

또 마지막으로 인력 부족 문제도 제기됐다.

버마어를 할 줄 알고, 이를 토대로 콘텐츠를 관찰할 인력이 없었다.

로이터 조사팀은 페이스북이 2014년만 해도 이를 담당하는 인력이 딱 1명 있었다고 전했다.

현재 페이스북은 모니터링 인력을 꾸준히 고용해 현재 60명의 버마어 구사자들이 콘텐츠를 관리하고 있다.

페이스북은 이미 이와 관련해 여러 차례 경고를 받았던 것으로 알려졌다.

호주의 다큐멘터리 제작자 에일라 칼란은 2013년 페이스북 수석 매니저에 이 문제를 제기했고, 박사 과정 학생 매트 쉬슬러 역시 다음 해 페이스북 직원들과 여러 차례 대화를 주고받았다.

2015년 기술 사업을 하는 데이비드 메든은 직접 미국 캘리포니아에 있는 페이스북 본사에 찾아가 미얀마에서 페이스북이 어떻게 악용되고 있는지를 프레젠테이션으로 준비해 역설하기도 했다.

메든은 이러한 노력에도 페이스북이 적절한 조처를 하지 않았다고 한탄했다.

"이것보다 훨씬 많이 경고했어요."

"이보다 더 확실하게 말할 순 없었을 거예요. 그런데도 페이스북은 필요한 조처를 하지 않았죠."

계정 삭제

페이스북의 대변인은 BBC에 회사 차원에서 더 많은 인원을 고용하고 문제를 해결하기 위해 노력하고 있다고 말했다.

"작년 한 해에만 제품 개발, 정책, 행정 전문가들을 고용해서 가짜 정보를 다루는 새로운 정책, 신고된 콘텐츠에 대한 응답 시간 단축, 오프라인상 위험을 초래할 수 있는 정보 등을 조사했고 증오 발언에 능동적으로 대처하고 있습니다."

실제 페이스북은 지난 8월에만 18개의 계정을 삭제하고 52개의 페이지를 삭제했으며 페이스북이 소유한 인스타그램의 계정 역시 1개 삭제했다.

당시 페이스북은 관련된 개인과 집단이 '심각한 인권 유린'을 자행하고 있다는 증거를 찾았다고 밝혔다.

이들은 계정 삭제가 결코 가볍게 내린 결정이 아니라는 점도 강조했다.

"기술을 악용하는 악의를 미리 알아채고 남용을 방지하는 것을 우선으로 하고 있습니다. 그게 저희의 책임이고 그 무게를 모두가 실감하고 있습니다."

지난 1월, 페이스북은 무슬림을 상대로 극단적인 발언을 일삼는 급진적인 수도승 아신 위라쑤의 계정을 삭제했다.

Image copyright Facebook screengrab
이미지 캡션 수도승 아신 위라쑤

이번에 삭제된 페이지와 계정 중에서는 1,200만 명 가량이 팔로우하고 있던 페이지도 있었다.

'너무 느리다'

페이스북은 성명서를 통해 미얀마에서 페이스북을 통해 퍼지던 "잘못된 정보와 혐오를 방지하기에는 너무 느리게 움직였다"고 적고 인터넷과 SNS가 증오의 확산에 취약하다는 점을 인정했다.

페이스북의 최고운영책임자(COO) 셰릴 샌드버그는 지난 9월 미국 상원 정보위원회 청문회에서 혐오 발언과 관련된 질문을 받은 바 있다.

그는 당시 페이스북이 증오 발언들에 맞서 대응하겠다고 밝혔다.

"증오는 페이스북의 정책에 위배되며 이를 해결하기 위해 강력한 조처를 하고 있습니다. 또 혐오 발언이 무엇인지에 대한 설명도 공개적으로 밝히고 있습니다."

"페이스북은 시민의 권리를 대단히 중요하게 여기고 있습니다."

Image copyright Getty Images
이미지 캡션 미 상원 청문회에 출석한 마크 저커버그

페이스북의 CEO 마크 저커버그 역시 4월 미 의회에서 증언했을 당시 버마어에 능통한 직원을 더 고용하는 것 외에도 지역 단체들과 협력하여 증오 발언을 일삼는 개인들을 파악하고 미얀마와 같은 사례를 방지하기 위한 조직을 구성할 것이라고 밝힌 바 있다.

메른은 페이스북의 사례는 더 광범위한 문제의 한 예일뿐이라고 지적한다.

"SNS 내 콘텐츠가 사람들의 실제 생활에 직접적인 영향을 끼치는 세상에 살고 있습니다."

"투표 방식에 영향을 미치고, 서로에게 하는 행동에 영향을 미치며, 폭력과 분쟁을 일으키기도 합니다."

"이제 국제사회는 이를 이해하고 기술을 발전시켜야 합니다."

"자국의 혹은 다른 나라들의 SNS상에서 무슨 일이 일어나고 있는지를 이해해야 한다는 거죠."

그는 "국제 사회는 이제는 기술을 발전시키고 이해해야 하며, 자국이나 다른 나라의 소셜 미디어에서 어떤 일이 일어나는지 이해해야 한다고 생각한다."고 말했다.

관련 기사 더 보기