뉴스 > 기획특집

알고리즘이 지배하는 세상(2)

사회적 갈등을 증폭하는 포털, SNS 플랫폼 알고리즘

기사입력 2020-11-11 오전 12:02:15 입력
페이스북 트위터

[SNS 타임즈] 지난 여름 조국 사태를 계기로 알고리즘이 주도하는 이념 양극화 바이러스가 우리 사회에서도 폭증하기 시작했다.

 

소셜미디어에서 대화를 나누고, 사진을 공유하는 등 일상 신변잡기까지 같이 나누던 페이스북 친구들이 서로 결별을 선언했다.

 

마음 통하는 친구인 줄로만 알았는데, 정치 현안을 바라보는 눈이 너무 이해하기 어려웠고, 결과적으로 소셜 네트워크로 늘 연결돼 있다는 사실 조차도 인내하기 힘들었기 때문이다.

 

미국 대선 과정에서 진영 갈등과 증오 확산으로 소요사태 발발을 우려하며 총기 구매가 늘어났다. 폭도들의 약탈과 파괴에 대비해 상점 창문에 보호 덮개를 설치하는 작업이 이루어지는 걸 보면, 미국 사회 갈등의 심각함을 이해할 수 있다.

 

미국의 페이스북, 트위터, 유튜브 등 SNS는 트럼프 진영과 반()트럼프 진영이 편을 갈라 패싸움을 벌이는 난장판이 된 지 오래다. 불행하게도 소셜 미디어의 대중화로 미국식 양당체제의 한계가 너무 일찍 드러났다고 볼 수 있다. 이념 갈등이 극대화된 이번 대선으로 미국의 민주주의는 위기를 맞고 있다.

 

또한, 유럽국가와 이슬람 국가간의 종교 문화 갈등으로 극단주의자들의 테러 행위에 유럽인들은 분노와 공포를 느끼고 있다. 

 

조국 사태를 계기로 서초동과 광화문에서 분열의 함성을 드높이던 시민들은 스마트폰 화면 속에서 이념 양극화의 성벽을 더 높고 굳건하게 쌓아 올렸다. (출처: TV조선)

 

국내라고 예외는 아니다. 보수와 진보 진영간에 친노(親盧)와 반노(反盧), 친문(親文)과 반문(反文)이 편싸움을 벌이는 한국의 팬덤 정치 현상도 마찬가지다.

 

문 대통령 열성 지지자들은 여당 국회의원들이 조금이라도 문 대통령과 정부를 비판하는 쓴소리나 소신 발언을 하면 즉시 문자폭탄으로 공격하는 현상, 그리고 조국 사태를 놓고 국민이 둘로 쪼개져 광화문 집회와 서초동 집회를 통해 세를 과시하는 현상이 좋은 사례다.

 

전 세계적인 포퓰리즘과 국가주의, 인종주의 확산도 SNS 효과가 아니고서는 설명하기 어렵다.

 

알고리즘이 주도하는 이념 양극화

 

스마트폰 속의 소셜 미디어 알고리즘이 사회를 분열시켜 진영간 증오를 유발시키는 일은 미국에서, 영국에서, 프랑스 등에서도 예외 없이 벌어지고 있다.

 

지난 여름 조국 사태를 계기로 알고리즘이 주도하는 이념 양극화 바이러스가 우리 사회에서도 폭증하기 시작했다.

 

소셜미디어에서 대화를 나누고, 사진을 공유하는 등 일상 신변잡기까지 같이 나누던 페이스북 친구들이 서로 결별을 선언했다.

 

마음 통하는 친구인 줄로만 알았는데, 정치 현안을 바라보는 눈이 너무 이해하기 어려웠고, 결과적으로 소셜 네트워크로 늘 연결돼 있다는 사실 조차도 인내하기 힘들었기 때문이다.

 

카카오톡 대화방에서도 유사한 이념 장벽 쌓기가 이어졌다.

 

고등학교 동기, 직장동료, 종교 교우들 대화방에서 오고 가는 정치 대화를 도저히 인내하기 어려워 이념성향이 맞는 동기들끼리 카톡 대화방에서 탈출해 새로운 카톡 대화방을 만들어 독립함으로써 카톡 대화방에서도 분단이 이루어졌다.

 

이처럼 우리나라 국민들은 소셜미디어 플랫폼의 알고리즘이 필터링 해주는, 이념이 통하는 사람들과만 접속하고 소통한다.

 

그 결과 우리는 두 개의 거대한 밀실 중 하나에 갇히게 됐다. 그것이 오른쪽 방이든 왼쪽 방이든 간에 반향실((Echo Chamber)이라 불리는 거대한 이념의 성벽 안에 갇혀, 알고리즘이 걸러주는 정보만을 편식하는 필터버블(Filter Bubble)이 되면서 바깥 세상을 온전하게 볼 수가 없게 된다.

 

페이스 북 설계자 저커버그는우리는 플랫폼이지 미디어 회사가 아니다. 3자가 플랫폼에서 무슨 일을 하던 우리는 책임이 없다라고 말해왔다.

 

하지만 세상 사람들은 이제 페이스북이 단순한 친목을 위한 플랫폼이 아니라는 것을 알고 있다. 페이스북 뿐만 아니라 거의 모든 소셜미디어가 사용자의 의사 결정에 지대한 영향을 미치는 미디어로 작동하고 있다.

 

사람들이 유튜브나 페이스북을 무료로 사용하는 것이 아니라, 그 회사들은 사용자들이 사용과정에서 생성하는 데이터를 활용해 엄청난 가치를 창출한다고 볼 수 있다.

 

소셜미디어가 사용자의 선호 예측 모형을 엄청난 수준의 정교한 알고리즘으로 업그레이드 했다는 것은 새로운 혁신적인 발전이라고 할 수 있다. 그러나 그 예측 모델이 사용자의 과거 생각과 언행을 기반으로 편견을 부추기는 알고리즘을 작동시킨다면 개인의 성장과 긍정적인 변화를 가로막는 걸림돌로 작용한다.

 

소셜미디어를 통해 표현의 자유와 소통의 편리성을 체감하는 동안 사용자는 자신도 모르게 편협한 사상과 이념의 가두리 양식장에 갇히는 결과를 가져온다.

 

반향실속에서 자신이 좋아하는 목소리만을 들으며 확증편향의 노예로 전락한다. 지금처럼 다양한 문화와 가치를 품어야 하는 대규모 사회에서는 문제를 일으킬 수 있다.

 

두 쪽으로 갈라진 반향실에서 나는 목소리 중 어느 쪽이 크냐에 따라 선거 결과도 결정된다.

 

집권 후에도 자신을 지지하는 사람들의 목소리에 귀 기울일수밖에 없기 때문에 누가 권력을 잡아도 통합의 정치는 어려워지고, 민주주의는 쇠퇴하게 된다. 소셜미디어가 민주주의 위기를 가져온다.

 

알고리즘에 의한 사회적 갈등과 증오 증폭

 

인간의 두뇌는 대략 1000억 개 안팎의 신경세포 뉴런(Neuron)으로 이루어져 있다. 하나의 뉴런은 10만 개에 달하는 또 다른 뉴런과 연결돼 있다. 사람이 하는 각각의 기억은 하나가 아닌 많은 뉴런이 시냅스 연결을 이루면서 만들어내는 하나의 네트워크다.

 

뇌는 사람 몸의 일부지만 자신의 뇌를 완전히 통제하지 못한다. 뇌의 길은 태어날 때부터 존재하는 것이 아니라 다양한 경험과 사용, 자극 때문에 신경세포의 연결이 강화되기도 하고, 약화하기도 한다

 

이처럼 확증 편향이나 고정관념은 뇌가 끊임없이 외부의 정보를 지각하는 과정에서 보고 싶은 것만 보기 때문에 중요치 않다고 생각하는 것은 놓치게 한다.

 

확증 편향이나 고정관념은 갖고 태어나는 것이 아니라 사회로부터의 끊임없는 학습 때문에 만들어진다. 확증 편향이나 고정관념이 많은 사람은 상황을 있는 그대로 보기보다 하나의 프레임을 씌워 다른 관점은 보지 못하게 하는뇌 지도가 단단히 자리 잡고 있다고 볼 수 있다. 소셜미디어는 이런 확증 편향을 증폭시켜서 사회적 갈등 비용을 크게 만든다.

 

전세계적으로 문제를 일으키고 있는 종교 갈등, 이념 대립, 포퓰리즘, 사회주의로의 회귀 등은 이런뇌지도현상으로 바라봐야 이해가 된다.

 

10년 전만 해도 소셜미디어는 민주주의를 확산하는 순기능을 했다. 하지만 어느새 민주주의를 위협하는 괴물이 되어버렸다.

 

스마트폰에 소셜미디어 앱을 깔고 개인 정보 제공에 동의하는 순간, 소셜미디어는 우리의 지배자가 된다. 시간과 돈을 바쳐가며좋아요싫어요를 누르고, 댓글을 달고, 공유와 전달 버튼을 클릭하면 할수록 공론장은 더욱 더 양극단으로 치닫는다.

 

우리 스스로 각성과 절제를 통해 소셜미디어의 늪에서 빠져나오지 않는 한 민주주의의 미래는 암담하다. 소셜미디어의 폐해를 줄이고 부작용을 막기 위한 지구적 차원의 논의도 절실하다.

 

우리 사회의 괴물이 되어버린 소셜미디어 기업에 대한 중립성, 공정성, 윤리성 차원의 규제가 불가피해 보인다.

 

포털, SNS의 추천 알고리즘 사례

 

2020 9월 국내에서는 권력의 포털 통제 의혹과 함께 알고리즘에 대한 관심이 커졌다.

 

네이버 부사장 출신의 여당소속 윤영찬 의원이 다음 카카오의 뉴스 편집을 문제 삼으며 책임자를 호출하는 장면이 대중에게 공개됐다. 다음 카카오는뉴스 편집

AI알고리즘이 해 사람이 관여할 수 없다고 해명했다.

 

국내 포털의 뉴스 유통 시장을 장악한데 따른 폐해가 크다는 지적이 잇따르자 네이버, 다음카카오 등 포털은 정보기술(IT) 기업들의 무기인기술을 앞세워 대응하고 있다.

 

알고리즘에 따라 뉴스를 추천하는 AI 기술이 대표적이다. 네이버와 카카오의 뉴스 추천 AI는 포털이 개발한 알고리즘이 사용자의 취향을 학습하고 예측해 좋아할 만한 뉴스를 추천하는 기술이다.

 

네이버의 뉴스추천 알고리즘 에어스(AiRS:AI Recommender System)는 비슷한 관심사를 가진 사람들이 많이 본 뉴스를 고르는협력필터링(CF: Collaborative Filtering)’과 개인의 과거 컨텐츠 소비 내역에 따라 좋아할 만한 뉴스를 골라주는인공신경망기술(RNN:Recurrent Neural Network)’을 기반으로 뉴스를 추천한다.

 

네이버의 AI 알고리즘에어스’(AiRS:AI Recommender System) AI로 개인형 맞춤 뉴스를 제공하는데, 편집자 개입 없이 자동으로 이용자의 피드백 데이터를 수집하고 있으며 이용자 기사 선호도와 기사의 품질을 고려한 개인화 추천 점수를 계산하는 알고리즘을 활용하고 있다. (출처: 네이버다이어리)
 

플랫폼에 데이터가 쌓일수록 알고리즘은 이용자 개인의 정치적 성향을 파악할 수 있게 된다. 여기에 맞는 뉴스만 추천하는 알고리즘이 정보 편식을 부추길 수 있다. 플랫폼이 걸러낸 정보만 소비하는 필터버블에 빠지는 것이다.

 

이처럼 플랫폼에 개인 정보가 많이 쌓일수록 더 정교한 맞춤형으로 컨텐츠를 추천해주므로 더욱 더 플랫폼에 잡혀서 벗어날 수 없게 된다.

 

알고리즘에 따라 이용자들에게 보이는 정보, 보이지 않는 정보가 결정된다면 그것 자체가 편집이므로 포털이 알고리즘이 만능인 것처럼 포장하면 안 된다는 지적이 있다.

 

특정 기업이 만든 알고리즘에 따라 대다수 소비자가 뉴스를 소비할 때 민주 사회에서 필요한 다양한 의제 형성을 제한할 수 있다.

 

특히 뉴스를 미끼로 트래픽을 모아 다른 서비스로 보내주는 포털 사업의 특성상 클릭률이 높고 체류시간이 긴 기사를 많이 노출할 수밖에 없다.

 

카카오에 따르면 카카오의 인공지능인 루빅스(RUBICS: Real Time User Behavior Interactive Content Recommender System)는 승률이 높은 슬롯머신을 찾아내듯 더 많은 클릭을 받을 것 같은 기사를 찾아내 추천하는 알고리즘을 기본으로 하고 있다.

 

카카오의 AI알고리즘 루빅스(RUBICS: Real Time User Behavior Interactive Content Recommender System) 는 승률이 높은 슬롯머신을 찾아내듯 더 많은 클릭을 받을 것 같은 기사를 찾아내 추천하는 알고리즘을 기본으로 하고 있다. (출처: 카카오블로그)

 

가짜뉴스 유통 통로라는 비판을 받는 페이스북은2018 2월 뉴스피드 알고리즘을 크게 개편했다.

 

사용자가 신뢰도가 높다고 응답한 언론사들의 기사를 뉴스피드에 더 많이 노출해 클릭 유도형, 선정적, 가짜 뉴스를 퇴출하겠다는 것이었다.

 

그러나 페이스북은 사용자들이 고품질 기사보다 자기 의견과 비슷한 기사를 더 믿을 만하다고 평가한다는 사실을 확인했다. 의도와 달리 필터버블이 더 강화된 격이다.

 

유튜브의 영상 추천 알고리즘도 계속 변화해 왔다. 이처럼 플랫폼회사들은 이용자들이 선호하는 컨텐츠를 보다 정확하게 추천하기위해 알고리즘을 지속적으로 수정한다.

 

유튜브 초기에는 조회수를 기준으로 영상을 추천했다. 그 결과 낚시성 제목, 썸네일 제작 등 부작용이 나타남에 따라, 2012년부터는 동영상을 끝까지 시청하는 비율을 기준으로 추천하는 방식으로 알고리즘을 바꾸기도 했다. 그러나 그 결과 가짜뉴스, 확증 편향 등 또 다른 부작용이 나타났다.

 

2016년 이후에는 AI의 머신 러닝 기술을 적용해 영상을 추천하고 있는데, 조회수와 단위시간당 조회수 증가속도, 시청시간, 좋아요 반응과 댓글 공유건수 등 사용자 참여 정도, 참신성, 채널내 영상 업로드 빈도, 세션 시간, 지역 등 다양한 요소를 고려하는 것으로 추정되고 있다.

 

유해 컨텐츠를 걸러내는 검열도 강화됐다. 보다 개인에 특화된 추천을 위해 개인이 좋아하는 주제와 좋아하지 않는 주제를 인지해 과거의 영상 시청기록을 참고하며 최종적인 추천 영상 목록이 완성된다.

 

유튜브는 영상 추천 알고리즘을 구체적으로 공개하지 않는다. 이에 비해 넷플릭스는 추천 알고리즘을 공개한다.

 

넷플릭스가 기본적으로 수집하는 사용자 정보로는 좋아요! 반응과 선택하는 영상과 선택하지 않은 영상, 시청 시간대, 영상 시청기기 등이다.

 

더 세세한 정보로는 시청하다 되감거나 멈춘 지점 등도 포함된다. 그리고 끝까지 시청하는지 여부 등을 정보도 수집한다.

 

이와 같은 정보를 분석해 비슷한 시청 패턴을 가진 사람들을 같은 그룹으로 묶는다. 이것이 이용자 행동 데이터 기반이 된다.

 

넷플릭스의 영상 추천 기술에는 영상에 태그를 붙이는 것이 더 추가된다. 모든 작업은 사람이 영상을 보고 영상의 특징을 태그로 붙인다. 플랫폼으로부터 수집한 사용자 데이터와 영상에 붙은 태그를 기반으로 넷플릭스 영상 추천 알고리즘이 영상을 추천한다.

 

넷플릭스의 추천 AI알고리즘은 유사한 사용자를 그룹으로 나누고, 해당 그룹에 속한 사용자가 시청한 컨텐츠를 해당 그룹내 다른 사용자에게 추천한다. (출처: 웹사이트 브런치)
 

[사진] 넷플릭스의 추천 AI알고리즘은 유사한 사용자를 그룹으로 나누고, 해당 그룹에 속한 사용자가 시청한 컨텐츠를 해당 그룹내 다른 사용자에게 추천한다.

 

경박한 사회로 추락

 

미국 트럼프 대통령은 트위터로 정치를 한다. 이전엔 상상도 못했던 일이다. 이처럼 이전의 진중하고 품격있는 정치는 사라졌다.

 

소셜미디어 공간에서 짧고 강한 언사로 조롱이나 독설을 잘하는 재사(才士)들이 수년전부처 여론을 이끌고 있다. 소셜미디어에서는 대면하지 않고 원격에서 글로 공격할 수 있으니 짧은 글로 조롱을 잘하는 사람들이 인기를 누린다.

 

짧고 강하게 조롱이나 독설을 잘 하면 팔로워가 많아지고 국회의원 후보로 공천받을 가능성도 높아진다. 협상이나 정책 능력은 필요없게 됐다.

 

페이스북이나 카톡 대화방 같은 디지털 가상공간에서는 내밀한 사적인 사진과 신변잡기까지 공유하던 관계에서 뭔가의 이견으로 생각이 갈리면 단호하게 탈퇴하거나 차단함으로써 관계가 간단하게 정리된다.

 

심사숙고 대신에 짧고 강한 조롱과 독설이 횡횡하는 무림에서 촌철살인의 고수는 수십만의 맹종하는 추종자들을 거느린다. 이런 소셜미디어에서 독설, 조롱, 비아냥, 증오만이 넘쳐나고 훈훈한 인간미나 덕담, 낭만적인 풍자 등은 찾아보기가 어렵다.

 

법무부 대화방에서는 장관과 검사간의 말싸움이 벌어진다. 이처럼 우리사회 어느 분야에서나 경박함이 넘치고 진중함과 품격이 사라져버렸다. 이것이 모두 소셜 미디어 덕분이라는 생각을 지울 수 없는 현실이다.

 

알고리즘은 이렇게 현생 인류인 호모 사피엔스(지혜로운 사람이란 의미)를 조롱과 악담을 즐겨하는 경박하고 사악한 인간으로 진화시켜 나가고 있다.

 

추천 알고리즘 검증 필요성

 

알고리즘 작동 방식은 내부의 소수를 제외하고는 알기 어렵다. 뉴스 추천 알고리즘을 외부 전문가들에 공개하고 검증도 받겠다고 하지만 포털은 자사의 필요에 따라 알고리즘을 수시로 바꿀 수 있다. 외부 알고리즘 검증위원회가 이를 체크하기란 사실상 불가능하다.

 

알고리즘의 위력은 작동 메커니즘을 알 수 없는 불투명성에서 나온다. 알고리즘은 작동원리를 알 수 없기에 알고리즘의 주술적 효과가 극대화돼 마치 중세 시대에 성직자들이 성서를 독점하며 사회를 지배하던 상황에 비유할 수 있다.

 

알고리즘이 특정 목적을 위해 악용되더라도 사람들은 알 수 없다는 근원적 위험성이 있다.

 

추천 알고리즘은 사람들이 관심을 끌 수 있는 음모론과 가짜뉴스를 좋아한다.

 

소셜미디어는 이용자를 붙잡아 두면서 이용 시간을 늘려 광고 수익을 최대화하는 것이 거대 플랫폼 기업의 목표다. 그것 때문에 거짓 뉴스, 음모론 등 거짓 정보까지 서슴지 않고 살포해 중독, 불안 등 심각한 문제를 야기한다. 사회의 불만과 분열을 자극하는 가짜 뉴스와 음모론이 이용자들에게 잘 먹히기 때문이다.

 

이용자들은 개인 맞춤형이라고 제시된 눈앞에 보이는 것을 믿는 경향이 있다. 포털과 소셜 미디어는 이용자들을 붙잡아 두며 이용시간을 늘려 광고 수익을 극대화하는 것이 경제적이라는 논리다. 때문에 음모론이나 가짜뉴스의 필터링에 적극적이지 않을 수 있다. 알고리즘의 편향성 검증과 투명성에 대한 사회적 감시가 필요하다는 사회적 지적이 설득력을 얻는 이유다.

 

 

- Copyright, SNS 타임즈 www.snstimes.kr

이상일 논설고문 (editor@snstimes.kr)

최근기사

네티즌 의견28
내용은 200자 이내로 적어야합니다. 기사와 무관한 글은 임의로 삭제 될 수 있습니다.
(스팸방지코드  )
의견
쓰기

정보네트워크
최근에 가장 많이 본 기사 인물
최근 가장 많이 본 기사인물은 독자들이 기사인물에 대한 클릭수가 실시간으로 적용된 것입니다.
최근에 많이 본 기사

전체메뉴