; ; 좁아진 시야, 깊어진 편향: 필터버블이 만드는 사회적 위험과 그 해법
 

좁아진 시야, 깊어진 편향: 필터버블이 만드는 사회적 위험과 그 해법

 

필터버블(Filter Bubble)이란, 인터넷 플랫폼의 개인화 알고리즘이 사용자가 선호하거나 과거에 많이 본 정보 위주로 콘텐츠를 노출함으로써, 사용자가 편향된 정보환경 속에 갇히는 현상을 말합니다.

 

이 개념은 2011년 엘리 파리저(Eli Pariser)가 자신의 저서 『The Filter Bubble: What the Internet is Hiding from You (Penguin Press, 2011)』에서 처음 대중적으로 소개되었는데, 파리저는 페이스북, 구글, 아마존 등 대형 온라인 플랫폼에서 사용하는 개인맞춤형 추천 알고리즘이 이용자로 하여금 ‘자신이 보고 싶어 하는 것만’ 보도록 유도하며, 결국 인지적 편향을 가속화한다고 지적했습니다.

개인화 알고리즘의 작동 원리와 배경

대다수 검색 엔진과 SNS는 사용자를 오래 머무르게 하려는 비즈니스 모델을 갖고 있습니다. 이들은 사용자의 검색 이력, 클릭 패턴, 위치 정보, 관심 태그, 친구 관계 등의 데이터를 분석한 뒤, 개별 사용자에게 ‘가장 좋아할 만한’ 게시물이나 웹페이지를 우선 추천합니다.

  • 예를 들어, 구글(Google)은 2009년부터 검색 결과를 개인화하기 시작했으며, 사용자가 이전에 방문한 웹사이트나 체류 시간 등도 고려하여 검색 순위를 달리 표시합니다.
  • 페이스북(Facebook), 인스타그램(Instagram), 트위터(Twitter), 유튜브(YouTube) 등도 마찬가지로, 사용자가 과거에 ‘좋아요’나 ‘댓글’을 남기거나 시청한 영상이 무엇인지 추적하여, 그와 유사하거나 더 극단적인 유형의 콘텐츠를 계속 보여주려는 경향이 있습니다.

이러한 개인화 기술은 정보의 과잉 시대에 원하는 정보를 더 쉽게 찾을 수 있도록 돕는다는 장점이 있습니다.

 

2020년 퓨 리서치 센터(Pew Research Center)가 발표한 “News Use Across Social Media Platforms” 보고서에 따르면, 미국 성인의 53%가 SNS를 통해 뉴스를 접한다고 응답했는데, 이는 사용자들이 더 이상 전통 미디어에만 의존하지 않고, 온라인 플랫폼 추천 알고리즘을 통해서도 뉴스를 소비하고 있음을 보여줍니다.

https://www.pewresearch.org/journalism/2021/01/12/news-use-across-social-media-platforms-in-2020/

 

News Use Across Social Media Platforms in 2020

About half of U.S. adults say they get news from social media “often” or “sometimes,” and this use is spread out across a number of different sites. Facebook stands out as a regular source of news for about a third of Americans.

www.pewresearch.org

 

다양한 사례로 본 필터버블 실태

(1) 정치·사회적 양극화

필터버블이 심각한 문제로 부각된 대표적 사례는 2016년 미국 대통령 선거영국의 브렉시트(Brexit) 국민투표입니다.

  • 뉴욕 타임스(The New York Times)는 2016년 대선을 분석하는 기사에서, 페이스북에서 특정 후보를 지지하는 게시물만 적극적으로 소비하는 사람들이 반대 후보 관련 콘텐츠는 거의 보지 않는 사례를 지적했습니다.
  • 옥스퍼드대학교(Oxford University) 인터넷연구소에서 2017년에 발표한 연구 보고서(“Computational Propaganda Project”)에 따르면, 트위터 상에서 정치 관련 가짜뉴스나 편파 정보가 알고리즘을 통해 집중 유포되며, 이용자들이 동질적인 집단 내부에서만 의견을 강화하는 경향(일명 ‘에코 챔버’)이 뚜렷하게 관찰되었습니다.

이렇듯 필터버블과 에코 챔버 현상은 정치적 이슈에 있어 서로 다른 지지자들이 교차 토론을 할 기회 자체를 축소시키고, 정치·사회적 양극화를 심화시킨다는 우려를 낳습니다.

(2) 가짜뉴스 확산

2018년 MIT(매사추세츠 공과대학교)의 보소기(Soroush Vosoughi), 로이(Deb Roy), 아랄(Sinan Aral) 교수가 『Science』지에 게재한 논문 “The spread of true and false news online”에서는, 트위터에서 가짜뉴스가 진짜뉴스보다 6배 빨리, 더 멀리 퍼진다는 사실이 실험 데이터로 확인되었습니다. 이 연구는 ‘자극적인 정보’, ‘분노나 공포를 유발하는 콘텐츠’가 사람들에게 더욱 활발히 공유될 가능성이 큰데, 알고리즘 역시 사용자의 즉각적인 반응을 끌어내는 콘텐츠를 우선 추천하기 때문에, 허위정보가 필터버블을 통해 더욱 빠르게 전파된다고 지적합니다.

The spread of true and false news online

 

(3) 검색 엔진의 개인화

구글은 세계에서 가장 많이 사용되는 검색 엔진으로, “전 세계 검색 점유율 90% 이상”이라는 통계(StatCounter GlobalStats, 2021년 기준)가 나올 정도로 막강한 영향력을 행사합니다. 하지만 구글은 2009년부터 사용자 맞춤형 검색 결과를 도입하여, 같은 검색어를 입력해도 사용자마다 위치나 검색 이력, 언어 환경 등에 따라 전혀 다른 결과가 뜨도록 설계했습니다.

 

예컨대 실제로 2018년 미국 대선을 앞둔 시점에, 미국의 워싱턴주와 텍사스주, 각각 다른 지역에서 “건보 개혁(healthcare reform)”을 검색했을 때 첫 페이지에 보이는 기사 목록이 현저히 달랐다는 사례가 <워싱턴 포스트(Washington Post)> 보도에서 소개되었습니다. 이는 지역적 맥락, 사용자의 과거 검색 성향 등을 반영한 구글 알고리즘이 극적으로 다른 정보 환경을 만들어낼 수 있음을 시사합니다.

필터버블이 야기하는 문제점

(1) 확증 편향(Confirmation Bias) 강화

이미 인간은 본래 자신의 신념과 일치하는 정보를 더 선호하고, 반대되는 정보는 기피하려는 경향을 보입니다. 2016년 플락스먼(Flaxman), 고엘(Goel), 라오(Rao)가 『Public Opinion Quarterly』에 게재한 연구에 따르면, SNS를 통한 뉴스 소비가 활발해질수록 이념적으로 편향된 소스를 주로 접하게 될 가능성이 높아지는 것으로 나타났습니다.

Filter Bubbles, Echo Chambers, and Online News Consumption

(2) 정보 다양성 훼손과 창의성 저해

필터버블 환경에서는 유사한 주제·관점을 지닌 콘텐츠가 반복 노출되어, 새로운 통찰이나 역동적인 관점 충돌이 일어날 가능성이 줄어듭니다. 유니버시티 칼리지 런던(University College London)의 2019년 연구보고서 “Diversity in Online News Consumption”는, 알고리즘이 추천한 기사만 읽는 사용자 집단이 직접 다양한 매체를 탐색하는 집단보다 약 30% 이상 노출되는 소스의 폭이 좁았다고 분석했습니다. 이는 결국 창의적인 아이디어 발현이나 건설적인 비판적 사고를 저해할 수 있습니다.

(3) 민주적 공론장 위협

인터넷은 다양한 목소리가 모이는 ‘열린 장’으로 시작됐지만, 필터버블은 이 장을 잘게 쪼개어 자기 강화적인 소그룹을 양산합니다. 이는 공론장 전체에서 의미 있는 합의나 객관적 사실 검증이 이루어지기 전에, 각자의 편견이 굳어지는 결과를 초래합니다. 선거나 대규모 사회 이슈가 발생할 때, 서로 다른 성향의 집단 간 대화가 단절되면서 갈등이 더욱 격화될 가능성이 높아집니다.

해결 방안

(1) 사용자 차원: 미디어 리터러시 강화

다양한 출처를 확인하고, 나와 다른 입장을 다루는 기사를 일부러 찾아보는 태도가 중요합니다.

주기적으로 브라우저 쿠키와 검색 기록을 지우거나, 로그아웃 상태로 검색하여 개인화가 덜 반영된 결과를 체험해보는 것을 권장하는 전문가도 있습니다.

 

SNS 피드나 뉴스 포털의 “추천 게시물”만을 소비하지 않고, 카테고리나 검색 기능을 통해 직접 탐색해 보는 습관도 필요합니다.

(2) 플랫폼 차원: 알고리즘 투명성 제고 및 책임 분담

플랫폼 기업은 이용자의 ‘체류 시간’을 극대화하는 대신, 일정 수준의 다양성 지표무작위성을 반영하는 방안을 고려해야 합니다. 예컨대 10개의 추천 콘텐츠 중 2~3개는 사용자가 보지 않을 것 같은 다른 분야의 정보를 노출한다는 방식입니다.

 

알고리즘이 어떤 방식으로 사용자 데이터를 수집하고, 어떤 기준으로 정보를 선별하는지를 최소한의 범위에서 투명하게 공개해야 합니다. 2020년 이후 페이스북이 알고리즘 변경사항을 약간 발표하였으나, 여전히 비판을 받는 이유는 구체적인 작동 원리를 공개하지 않기 때문입니다.

(3) 정부·교육 기관 차원: 제도적·정책적 접근

정부와 공공기관은 가짜뉴스 예방 및 필터버블 완화를 위한 정책적 장치를 마련해야 합니다. 한국인터넷진흥원(KISA)이 발행한 ‘인터넷 이용환경 보고서(2021)’에서도, 청소년 및 노년층을 중심으로 온라인 허위정보가 빠르게 전파된다는 사실이 제시되었습니다.

 

이를 막기 위해선 가짜뉴스에 대한 신속한 팩트체크(Fact-check) 시스템과 잘못된 정보를 유포한 매체나 플랫폼에 대한 공적 규제가 필요할 수 있습니다.

 

초·중·고등학교 및 대학 수준에서 미디어 리터러시 교육을 정규 교과 혹은 필수 교양으로 편성하여, 학생들이 올바른 정보 선별법, 비판적 사고능력, 다각적 분석 태도를 기를 수 있도록 하는 것도 주요 과제입니다.

(4) 기술 차원: 윤리적 설계와 객관성 확보 노력

인공지능(AI)을 통해 정보 추천 알고리즘이 더욱 정교해지고 있는 상황에서, 개발자와 기업은 기술적 편향(Bias)을 최소화하기 위한 윤리적 설계(Ethical Design)를 고민해야 합니다.

윤리적 설계

글로벌 빅테크 기업들은 최근 알고리즘 공정성(Fairness)과 투명성(Transparency) 확보에 관한 AI 윤리 가이드라인을 발표하기 시작했으며, 각국 정부도 설명 가능성(Explainability)을 법·제도적으로 요구하는 흐름이 확산되고 있습니다. 예를 들어, 유럽연합(EU)은 ‘디지털 서비스법(DSA)’ 등에서 플랫폼 알고리즘에 관한 설명 의무 및 책임을 강화하려 하고 있습니다.

다양성 회복과 공론장 복원을 위한 협력

필터버블은 오늘날 인터넷과 SNS가 제공하는 편의성이 만들어낸 역설적 결과물이라고 할 수 있습니다. 우리는 정보 기술이 발전함에 따라 무한히 많은 자료를 접할 수 있게 되었지만, 정작 개개인은 좁은 거품에 갇혀 자신이 원하는 이야기만 듣고 볼 위험에 노출되고 있습니다. 이 문제는 단순히 개인의 선택에서 비롯된 것이 아니라, 플랫폼의 알고리즘 설계와 사회 시스템 전반이 복합적으로 작용한 결과이기도 합니다.

 

하지만 그 해결 또한 한쪽 주체만의 노력으로는 어렵습니다. 사용자가 다양한 시야를 기르는 데 적극적으로 나서고, 플랫폼이 추천 알고리즘의 편향을 최소화하려 하며, 정부와 교육 기관은 제도적 지원과 함께 미디어 리터러시를 장기적으로 확산시켜야 합니다. 또한 기술계에서는 빅데이터·인공지능의 발전이 사회적 가치를 증진하는 방향으로 나아갈 수 있도록, 윤리적·공익적 설계 기준을 고민해야 합니다.

 

필터버블에 대한 사회적 경각심은 이미 전 세계적으로 높아지고 있습니다. 2021년 미국 하원 청문회에서 페이스북, 구글, 트위터 최고경영자들이 알고리즘으로 인한 극단화 문제와 가짜뉴스 확산에 대해 강도 높은 질의를 받은 것은 상징적인 사례입니다. 이러한 변화는 ‘좁아진 시야’를 다시 넓히고, ‘확증 편향’으로 깊어진 갈등을 완화하며, 건강한 공론장을 복원하기 위한 첫걸음이라 할 수 있습니다.

 

궁극적으로, 필터버블 문제의 핵심은 각 개인에게 주어진 다양성비판적 사고의 기회를 되찾는 일에 있습니다. 지금의 인터넷 환경을 좀 더 공정하고 투명하게 만들어가는 과정에서, 모두가 조금씩 책임을 분담하고 협력해야만, 진정한 의미의 열린 정보사회와 민주적 소통 구조가 유지될 수 있을 것입니다.