소셜미디어는 누구나 뉴스 생성에 기여할 수 있어 발 빠르게 현장소식을 전할 수 있지만, 정보의 검열과 통제가 부재하기 때문에 가짜뉴스가 빠르게 퍼질 수 있다. 이러한 확산은 플랫폼과 사용자의 특성에 모두 기인한다.
먼저 플랫폼은 다양한 정보 중에서 사람들의 관심을 받는 기사를 알고리즘으로 자동 선출하여 재확산시킨다. 사용자들이 클릭을 많이 한 기사는 사실 여부와 상관없이 플랫폼에 의해 ‘좋은 콘텐츠’로 인식된다. 그 결과 내용이 자극적이었기에 많은 선택을 받은 기사라 하더라도 상위로 노출되어 재확산된다. 구글 Google 의 경우에도 알고리즘에 의해 검색 결과 상위에 가짜뉴스가 올라오는 문제가 지적되어왔다.
2016년 미국 대선 직후 구글 검색창에서 ‘final election vote count 2016(결선 투표 결과 2016)’라는 검색어를 입력하면 <70 뉴스 70 News >라는 가짜뉴스 사이트의 기사가 검색 순위 최상단에 올라왔다. 해당 기사 내용은 트럼프가 클린턴을 상대로 선거인단 및 일반인 투표 모두에서 이겼다는 것이었다. 물론 이는 가짜뉴스였다.1
다음으로 소셜미디어 사용자들은 기사의 헤드라인, 사진, 리드 등을 토대로 빠르고 함축적인 정보 소비를 한다. 소셜미디어를 통해 접하는 정보 대부분은 요약된 형태로만 소비될 뿐 실제 뉴스 전문을 클릭해 보지 않기 때문에 뉴스의 제공자가 누구인지, 인용된 사진의 출처가 확실한지, 헤드라인과 뉴스 전문이 일치하는지 검증하지 않는다. 이러한 환경에서는 자극적인 헤드라인이나 낚시성 기사가 확산되기 쉽다.
또한 소셜미디어의 정보 소비는 나와 신념이 일치하는 생각이나 글만 선택적으로 찾고 재확산시키는 ‘확증편향 confirmation bias ’을 가속화시킨다.2
확증편향이란?
자신이 가지고 있는 기존 믿음이나 가설과 부합하는 정보만을 찾고,
그렇지 않으면 그에 맞게 정보를 해석하려는 심리적 경향을 말한다.
인지편향의 한 유형으로 대표적인 귀납 추론의 오류 중 하나다.
소셜미디어에서 관심사가 비슷한 사람과 네트워크를 맺고 유사한 정보를 공유함으로써 확증편향에 따라 자신들이 갖고 있던 신념을 강화하는 방향으로만 정보들을 공유하기 시작하는 필터버블 filter bubble 이 형성된다.3 그 결과 소셜미디어는 가짜뉴스 전파를 위한 최적의 환경이 된다.
가짜뉴스를 막기 위해서는 플랫폼과 개인 모두 필터버블이 형성되지 않도록 해야 한다.
앞서 말한 두 가지 플랫폼과 사용자 특성에 근거해 각기 다양한 가짜뉴스 대처 방법이 제시되었다. 콘텐츠를 정렬해서 보여주는 플랫폼 회사들은 가짜뉴스의 가능성이 있는 기사의 순위를 낮추거나 삭제함으로써 사용자 화면에서 검색이 되지 않도록 막을 수 있다. 플랫폼의 노력은 크게 페이스북과 구글의 스타일을 살펴볼 필요가 있다.
먼저 페이스북의 경우는 2016년부터 ‘삭제remove, 축소reduce, 안내inform’라고 부르는 일련의 전략을 제시한다. 먼저 사용자의 신고나 내부 알고리즘에 의해 커뮤니티 규정을 위반했다고 판단되는 콘텐츠는 바로 삭제한다. 유해 콘텐츠를 퍼트리는 수백만의 거짓 계정과 봇의 제거도 여기 해당한다. 다음으로 커뮤니티 표준을 위반하지는 않지만 문제가 있는 콘텐츠(낚시성 글 또는 스팸)일 경우에는 랭킹 결과를 조정해 확산 범위를 대거 축소한다.4,5
더불어 페이스북은 가짜뉴스로 판정된 데이터를 인공지능으로 학습하여 콘텐츠의 패턴을 확인한 후 향후 발생할 부정확한 콘텐츠를 예측하고, 그 예측 결과를 외부 팩트체크 기관에게 전달하여 콘텐츠를 검토한다. 거짓으로 확인된 정보는 피드에 표시될 확률이 낮아지게 되며, 이러한 라벨링 데이터가 쌓일수록 머신러닝의 성능은더욱 정교해진다.6
마지막으로 뉴스피드에 나오는 콘텐츠의 맥락에 대한 추가 정보를 기사와 함께 제공해 사용자 스스로 사실 여부를 판단하도록 ‘안내’해준다. 예를 들어, 기사의 하단에 위키피디아의 정보나 외부 팩트체크 기관의 라벨을 표시하는 것이다. 이와 같은 다각적 접근을 통해 가짜뉴스에 대응하고 있다. 구글도 마찬가지로 검색한 기사에 팩트체크 결과를 태그로 표시하는데, 이러한 라벨은 외부 기관에 의해 제공된다. 단, 모든 검색에 적용되는 것은 아니며, 가짜뉴스의 논란이 있는 주제에 한해 제공된다.7
플랫폼 차원의 접근 관련하여 최근 주목할 만한 기업 사례가 있는데, 바로 중국 미디어 스타트업 기업인 바이트댄스Bytedance의 모바일 애플리케이션 ‘틱톡TikTok’이다. 틱톡은 15초 내의 짧은 영상을 공유할 수 있는 새로운 소셜미디어 서비스로, 특히 청소년층의 댄스 동영상 공유에서 선풍적인 인기를 끌고 있다.8
이 앱은 콘텐츠 큐레이션에 있어 기존 미디어와는 차별화된 방식을 도입했다. 틱톡은 유튜브처럼 여러 영상을 추천하지 않고 AI 기술을 사용해 애초에 사용자에게 보여지는 동영상을 결정한다. 사용자의 앱내 활동 로그(‘좋아요’ 목록, 스와이프한 빠르기 등)를 바탕으로 다음에 하나씩 보여질 동영상을 AI가 자동으로 계산하는 것이다.
이런 방식은 플랫폼이 정보를 검열하고 표현의 자유를 제한한다는 평가가 있기도 하지만, 플랫폼이 콘텐츠 랭킹을 완전히 결정하므로 기존의 플랫폼에서 나타난 가짜뉴스나 부적절 콘텐츠의 확산과 같은 부작용이 아직 나오지 않고 있어 새롭게 평가되고 있다.
※ 본 기사는 스켑틱 18호 <가짜뉴스에는 패턴이 있다> 중 차미영 교수의 '네트워크는 가짜뉴스를 알고 있다' 에서 부분 발췌한 글입니다.
스켑틱 18호 가짜뉴스에는 패턴이 있다
글 차미영
카이스트 전산학부 부교수이자 문화기술대학원 겸임교수이다. 독일 막스플랑크연구소에서 박사후연구원, 미국 페이스북 데이터사이언스팀 방문교수를 역임했다. 현재 기초과학연구원(IBS)에서 CI(Chief Investigator)로 겸직하며 데이터 사이언스 연구팀을 이끌고있다. 관심 분야는 네트워크 과학, 계산 사회과학, 전산 통계학, 소셜 컴퓨팅으로 빅데이터를 활용한 융합 연구를 진행하고 있다. 2010년에 발표된 논문 <백만 팔로워의 오류(The Million Follower Fallacy)>는 뉴욕타임즈 온라인에 소개되며 3000회 이상 피인용 되었고, 그 외 연구들로 여러 국제 학술대회에서 최우수 논문상을 수상했다.
References
1 Abrams, D. “Now even Google search aiding in scourge of fake, inaccurate news about election 2016” Mediaite. 2016.11.13.
2 Nickerson, R. S. Confirmation bias: A ubiquitous phenomenon in many guises. Review of general psychology, 2(2):175. 1998.
3 Flaxman, S., Goel, S., and Rao, J. M. Filter bubbles, echo chambers, and online news consumption. Public opinion quarterly, 80(S1): 298–320. 2016.
4 Facebook Newsroom. “People, Publishers, the Community.” 019.04.10.
5 Facebook Newsroom. “Hard Questions: What’s Facebook’s Strategy for stopping False News?.” 2018.05.23.
6 Facebook Newsroom.”How People Help Fight False News” 2018.6.21.
7 Justin Kosslyn, “Fact Check now available in Google Search and Newsaround theworld”, 2017.04.07.
8 Connie Chan. When AI is the Product: The Rise of AI-Based Consumer Apps. Andreessen Horowitz, 2018.12.3.
소셜미디어는 누구나 뉴스 생성에 기여할 수 있어 발 빠르게 현장소식을 전할 수 있지만, 정보의 검열과 통제가 부재하기 때문에 가짜뉴스가 빠르게 퍼질 수 있다. 이러한 확산은 플랫폼과 사용자의 특성에 모두 기인한다.
먼저 플랫폼은 다양한 정보 중에서 사람들의 관심을 받는 기사를 알고리즘으로 자동 선출하여 재확산시킨다. 사용자들이 클릭을 많이 한 기사는 사실 여부와 상관없이 플랫폼에 의해 ‘좋은 콘텐츠’로 인식된다. 그 결과 내용이 자극적이었기에 많은 선택을 받은 기사라 하더라도 상위로 노출되어 재확산된다. 구글 Google 의 경우에도 알고리즘에 의해 검색 결과 상위에 가짜뉴스가 올라오는 문제가 지적되어왔다.
2016년 미국 대선 직후 구글 검색창에서 ‘final election vote count 2016(결선 투표 결과 2016)’라는 검색어를 입력하면 <70 뉴스 70 News >라는 가짜뉴스 사이트의 기사가 검색 순위 최상단에 올라왔다. 해당 기사 내용은 트럼프가 클린턴을 상대로 선거인단 및 일반인 투표 모두에서 이겼다는 것이었다. 물론 이는 가짜뉴스였다.1
다음으로 소셜미디어 사용자들은 기사의 헤드라인, 사진, 리드 등을 토대로 빠르고 함축적인 정보 소비를 한다. 소셜미디어를 통해 접하는 정보 대부분은 요약된 형태로만 소비될 뿐 실제 뉴스 전문을 클릭해 보지 않기 때문에 뉴스의 제공자가 누구인지, 인용된 사진의 출처가 확실한지, 헤드라인과 뉴스 전문이 일치하는지 검증하지 않는다. 이러한 환경에서는 자극적인 헤드라인이나 낚시성 기사가 확산되기 쉽다.
또한 소셜미디어의 정보 소비는 나와 신념이 일치하는 생각이나 글만 선택적으로 찾고 재확산시키는 ‘확증편향 confirmation bias ’을 가속화시킨다.2
소셜미디어에서 관심사가 비슷한 사람과 네트워크를 맺고 유사한 정보를 공유함으로써 확증편향에 따라 자신들이 갖고 있던 신념을 강화하는 방향으로만 정보들을 공유하기 시작하는 필터버블 filter bubble 이 형성된다.3 그 결과 소셜미디어는 가짜뉴스 전파를 위한 최적의 환경이 된다.
가짜뉴스를 막기 위해서는 플랫폼과 개인 모두 필터버블이 형성되지 않도록 해야 한다.
앞서 말한 두 가지 플랫폼과 사용자 특성에 근거해 각기 다양한 가짜뉴스 대처 방법이 제시되었다. 콘텐츠를 정렬해서 보여주는 플랫폼 회사들은 가짜뉴스의 가능성이 있는 기사의 순위를 낮추거나 삭제함으로써 사용자 화면에서 검색이 되지 않도록 막을 수 있다. 플랫폼의 노력은 크게 페이스북과 구글의 스타일을 살펴볼 필요가 있다.
먼저 페이스북의 경우는 2016년부터 ‘삭제remove, 축소reduce, 안내inform’라고 부르는 일련의 전략을 제시한다. 먼저 사용자의 신고나 내부 알고리즘에 의해 커뮤니티 규정을 위반했다고 판단되는 콘텐츠는 바로 삭제한다. 유해 콘텐츠를 퍼트리는 수백만의 거짓 계정과 봇의 제거도 여기 해당한다. 다음으로 커뮤니티 표준을 위반하지는 않지만 문제가 있는 콘텐츠(낚시성 글 또는 스팸)일 경우에는 랭킹 결과를 조정해 확산 범위를 대거 축소한다.4,5
더불어 페이스북은 가짜뉴스로 판정된 데이터를 인공지능으로 학습하여 콘텐츠의 패턴을 확인한 후 향후 발생할 부정확한 콘텐츠를 예측하고, 그 예측 결과를 외부 팩트체크 기관에게 전달하여 콘텐츠를 검토한다. 거짓으로 확인된 정보는 피드에 표시될 확률이 낮아지게 되며, 이러한 라벨링 데이터가 쌓일수록 머신러닝의 성능은더욱 정교해진다.6
마지막으로 뉴스피드에 나오는 콘텐츠의 맥락에 대한 추가 정보를 기사와 함께 제공해 사용자 스스로 사실 여부를 판단하도록 ‘안내’해준다. 예를 들어, 기사의 하단에 위키피디아의 정보나 외부 팩트체크 기관의 라벨을 표시하는 것이다. 이와 같은 다각적 접근을 통해 가짜뉴스에 대응하고 있다. 구글도 마찬가지로 검색한 기사에 팩트체크 결과를 태그로 표시하는데, 이러한 라벨은 외부 기관에 의해 제공된다. 단, 모든 검색에 적용되는 것은 아니며, 가짜뉴스의 논란이 있는 주제에 한해 제공된다.7
플랫폼 차원의 접근 관련하여 최근 주목할 만한 기업 사례가 있는데, 바로 중국 미디어 스타트업 기업인 바이트댄스Bytedance의 모바일 애플리케이션 ‘틱톡TikTok’이다. 틱톡은 15초 내의 짧은 영상을 공유할 수 있는 새로운 소셜미디어 서비스로, 특히 청소년층의 댄스 동영상 공유에서 선풍적인 인기를 끌고 있다.8
이 앱은 콘텐츠 큐레이션에 있어 기존 미디어와는 차별화된 방식을 도입했다. 틱톡은 유튜브처럼 여러 영상을 추천하지 않고 AI 기술을 사용해 애초에 사용자에게 보여지는 동영상을 결정한다. 사용자의 앱내 활동 로그(‘좋아요’ 목록, 스와이프한 빠르기 등)를 바탕으로 다음에 하나씩 보여질 동영상을 AI가 자동으로 계산하는 것이다.
이런 방식은 플랫폼이 정보를 검열하고 표현의 자유를 제한한다는 평가가 있기도 하지만, 플랫폼이 콘텐츠 랭킹을 완전히 결정하므로 기존의 플랫폼에서 나타난 가짜뉴스나 부적절 콘텐츠의 확산과 같은 부작용이 아직 나오지 않고 있어 새롭게 평가되고 있다.
※ 본 기사는 스켑틱 18호 <가짜뉴스에는 패턴이 있다> 중 차미영 교수의 '네트워크는 가짜뉴스를 알고 있다' 에서 부분 발췌한 글입니다.
스켑틱 18호 가짜뉴스에는 패턴이 있다
글 차미영
카이스트 전산학부 부교수이자 문화기술대학원 겸임교수이다. 독일 막스플랑크연구소에서 박사후연구원, 미국 페이스북 데이터사이언스팀 방문교수를 역임했다. 현재 기초과학연구원(IBS)에서 CI(Chief Investigator)로 겸직하며 데이터 사이언스 연구팀을 이끌고있다. 관심 분야는 네트워크 과학, 계산 사회과학, 전산 통계학, 소셜 컴퓨팅으로 빅데이터를 활용한 융합 연구를 진행하고 있다. 2010년에 발표된 논문 <백만 팔로워의 오류(The Million Follower Fallacy)>는 뉴욕타임즈 온라인에 소개되며 3000회 이상 피인용 되었고, 그 외 연구들로 여러 국제 학술대회에서 최우수 논문상을 수상했다.
References
1 Abrams, D. “Now even Google search aiding in scourge of fake, inaccurate news about election 2016” Mediaite. 2016.11.13.
2 Nickerson, R. S. Confirmation bias: A ubiquitous phenomenon in many guises. Review of general psychology, 2(2):175. 1998.
3 Flaxman, S., Goel, S., and Rao, J. M. Filter bubbles, echo chambers, and online news consumption. Public opinion quarterly, 80(S1): 298–320. 2016.
4 Facebook Newsroom. “People, Publishers, the Community.” 019.04.10.
5 Facebook Newsroom. “Hard Questions: What’s Facebook’s Strategy for stopping False News?.” 2018.05.23.
6 Facebook Newsroom.”How People Help Fight False News” 2018.6.21.
7 Justin Kosslyn, “Fact Check now available in Google Search and Newsaround theworld”, 2017.04.07.
8 Connie Chan. When AI is the Product: The Rise of AI-Based Consumer Apps. Andreessen Horowitz, 2018.12.3.