페이스북, 유튜브 등의 소셜 미디어를 이용하던 중 최근 쇼핑몰 사이트에서 봤던 옷과 유사한 스타일의 광고를 발견한다. 어떤 광고는 ‘회원님이 좋아할 만한 상품을 추천해봤다’는 문구로 시선을 끈다. 그런데 ‘좋아할 만한 스타일’은 어떻게 알았을까. 소셜 미디어를 이용하다가 이러한 의문을 느낀 적이 있을 것이다.

  이는 개인화 알고리즘의 한 예다. 인터넷이 발달함에 따라 범람하는 정보를 한 번에 처리하기 어려워졌고, 소셜 미디어 기업들은 쾌적한 이용 환경을 위해 이용자가 관심을 가질 만한 콘텐츠를 위주로 제공하는 개인화 알고리즘 방식을 선택했다. 그들은 인공지능을 이용해 이용자의 검색 기록이나 클릭 정보를 수집 및 분석해 이용자가 만족할 만한 검색 결과를 제공한다. 이 과정에서 이용자가 어떤 콘텐츠를 소비하고 반응했으며, 어떤 정치적 성향을 가지고 있는지까지 파악된다.

  개인화 알고리즘은 짧은 시간 안에 이용자가 원하는 정보를 쉽게 제공할 수 있는 장점이 있다. 하지만 개인화 알고리즘이 이용자에게 극히 일부분의 정보만 제공한다는 비판을 피해갈 수는 없다. 이는 ‘필터 버블’ 현상, 즉 맞춤형 정보를 사용자에게 제공함으로써 걸러진 정보만을 접하게 하는 현상을 초래한다.

  개인화 알고리즘을 적용할 경우, 이용자는 단순히 광고, 오락성 콘텐츠를 넘어서 뉴스까지 걸러진 정보를 접하게 된다. 관심사와 동떨어지고 정치적 성향과 반대된 정보가 차단될수록 이용자는 확증 편향(자신의 신념과 일치하는 정보는 받아들이고, 신념과 일치하지 않는 정보는 무시하는 경향)에 빠지기 쉽다. 자신도 모르게 자신의 신념과 일치하지 않는 정보는 배제하게 되는 것이다. 이런 현상이 심화된다면 결국 구성원 간 대립을 심화시키고 사회적 합의 도출을 방해할 것이다. 인터넷 포털 네이버는 이러한 문제를 개선하고 이용자의 편의를 증진시키기 위해 AiRS(AI Recommender System)를 도입했다. 이는 AI 기반 뉴스 시스템이지만 이용자의 기존 관심사와는 다른 분야의 기사도 함께 추천될 수 있도록 함으로써 확증 편향 문제를 최소화하고 있다.

  우리는 한정된 정보만을 제공하는 필터 버블 현상으로부터 벗어나기 위한 노력을 해야 한다. 개인적 차원의 방안으로는 △인터넷 검색기록 삭제 △쿠키 삭제 △인터넷 정보 보호 모드 사용 등의 방법이 있다. 편향된 정보를 제공하는 정보 제공자 또한 책임의 의무를 지닌다. 이용자들에게는 다양한 정보를 접할 권리가 있기 때문이다. 설령 이용자의 편의를 증진시키기 위한 의도였을지라도 이용자의 성향과 상반된 정보를 배제하는 것은 이용자의 권리를 침해하는 것이다. 따라서 정보 제공자 또한 필터 버블로부터 발생하는 부정적 현상에 대한 해결책을 적극적으로 모색해야 한다. 그렇지 않는다면 그들은 사용자의 권리를 침해하고 확증 편향을 조장한다는 오명을 벗기 어려울 것이다.

저작권자 © 숭대시보 무단전재 및 재배포 금지