
우리는 지금 어떤 기준으로 세상을 바라보고 있는가. 아침에 스마트폰 화면을 켜는 그 짧은 순간, 어떤 뉴스가 먼저 떠오르고 어떤 영상이 우리를 붙잡으며, 어떤 분노와 어떤 공감이 마음을 흔드는지는 더 이상 우리의 순수한 선택만으로 결정되지 않는다. 이미 그 앞단에는 수많은 계산식과 학습 모델로 이루어진 ‘알고리즘’이 조용히 자리 잡고 있다. 알고리즘은 편리함을 약속하지만, 결코 중립적인 존재는 아니다. 문제는 이 비중립성이 개인의 취향을 넘어, 민주주의의 공론장 자체를 보이지 않게 재구성하고 있다는 데 있다.
오늘날 주요 플랫폼의 알고리즘은 이용자의 과거 행동-클릭과 검색, 시청 시간과 좋아요-을 기억하고 학습하며, ‘우리가 좋아할 가능성이 높은 정보’를 앞세운다. 이는 효율성과 만족도를 높이는 데에는 탁월하지만, 동시에 우리를 특정한 정보의 방 안에 가두는 필터 버블과 에코 체임버를 만들어낸다. 그 결과 우리는 점점 다른 시선과 마주칠 기회를 잃고, 이미 믿고 있는 것을 더욱 굳혀주는 이야기만을 반복해서 소비하게 된다. 이는 개인의 확증 편향을 넘어, 사회 전체를 양극화와 적대적 진영정치로 밀어붙이는 구조적 힘으로 작동한다.
민주주의는 본래 다양한 의견이 부딪치고, 그 충돌 속에서 숙의가 이루어지는 공론장을 전제로 한다. 그러나 알고리즘이 만들어낸 오늘의 정보 환경에서는 이 전제가 서서히 무너지고 있다. 이는 표현의 자유가 지나치게 넘쳐난 결과라기보다, 공론장의 조건 자체가 기술적으로 왜곡된 결과에 가깝다.
선호·반대 정보, 7 대 3 제공 모델
이제 우리는 알고리즘을 전적으로 사적 영역에 맡겨두는 관성에서 벗어나야 한다. 알고리즘이 여론의 흐름을 만들고 시민의 판단 능력에 깊숙이 개입하고 있는 이상, 공적 규범과 민주적 통제는 피할 수 없는 과제가 된다. 이는 검열이나 사상 통제가 아니라, 오히려 시민이 스스로 판단할 수 있는 자유를 회복하기 위한 최소한의 조건 설정이다. 이러한 문제의식 위에서 나는 몇 가지 제안을 하고자 한다.
첫째, 알고리즘의 투명성과 설명 가능성을 제도적으로 강화해야 한다. 오늘날 추천 알고리즘은 고도로 복잡한 ‘블랙박스’로 작동하며, 왜 어떤 정보는 우리 앞에 나타나고 어떤 정보는 사라지는지 이용자는 알기 어렵다. 기업의 영업비밀을 모두 공개하자는 것이 아니다. 다만 최소한의 작동 원리와 사회적 영향에 대해서는 외부의 검증이 가능해야 한다. 유럽연합의 디지털서비스법(DSA)이 대형 플랫폼에 알고리즘 위험 평가와 비개인화 피드 선택권을 요구하는 것도 바로 이 때문이다.
둘째, 특히 학생과 청소년을 대상으로 한 알고리즘에는 공익적 설계 원칙을 분명히 도입해야 한다. 성장기의 학생들은 아직 비판적 사고 능력이 충분히 형성되지 않은 상태에서 정보 환경의 영향을 고스란히 받는다. 이들에게 ‘좋아할 만한 정보’만을 100% 제공하는 알고리즘은 편리할 수는 있지만, 교육적으로는 위험하다.
이에 하나의 구체적인 정책 원칙을 제안한다. 학생·청소년 대상 플랫폼에서는 ‘선호 정보 70%, 상이한 관점의 정보 30%’를 의무적으로 혼합 제공하는 ‘7 대 3 알고리즘 균형 원칙’을 도입하자는 것이다. 이는 반대 의견을 억지로 주입하자는 것이 아니라, 사고의 지평이 한 방향으로만 굳어지지 않도록 하기 위한 최소한의 설계 개입이다. 초등 단계에서는 5 대 5에 가까운 균형을, 중고등 단계에서는 7 대 3 정도의 부분 균형을 적용하는 방식도 충분히 검토할 수 있다.
역지사지형 알고리즘 개선이라 하겠다. 올해 12월부터 호주에서는 16세 미만 SNS 금지를 시행하며, 내년에는 말레이시아도 유사한 규제를 한다. 우리는 이 실험을 지켜보면서 한국형 공적 규제의 길을 개척할 수 있겠다.
셋째, 이와 맞닿아 있는 문제로서 극단성이 수익 모델이 되는 구조, 즉 사회적 갈등과 분열이 플랫폼 경제에서 이윤으로 환산되는 구조에 대한 공적 제한이 필요하다. 유튜브 공간에서 극단성은 더 이상 우연한 부작용이 아니라, 알고리즘 경제 속에서 체계적으로 보상받는 요소가 되었다. 그 결과 극단성은 합리적인 전략이 되고, 온건함은 비효율로 밀려난다. 우리는 이미 ‘극단성 비즈니스’가 존재하는 공간에 살고 있는지도 모른다.
알고리즘 권력 앞에 선 민주주의
시민이 더 분노할수록, 사회가 더 갈라질수록 플랫폼은 더 많은 주목과 더 큰 수익을 얻는다. 이는 민주주의의 논리와 시장의 논리가 정면으로 충돌하는 지점이다. 알고리즘이 사실상 ‘사적 여론 편집자’로 기능하는 상황에서, 그 책임을 기업의 자율에만 맡기는 것은 공공성을 내려놓는 일과 다르지 않다.
민주주의는 숙의와 토론, 그리고 상호 이해를 토대로 성장한다. 그러나 알고리즘 시장은 감정의 즉각적인 반응과 단순한 적대 구도를 선호한다. 특히 청소년과 학생이 노출되는 알고리즘 환경에서는 이 문제가 더욱 심각하다. 사이버 공간을 최대한 자유의 공간으로 남겨두되, 동시에 극단성이 수익 모델이 되는 이 구조에 대해서는 보수와 진보의 경계를 넘어 공적 프레임을 모색해야 한다.
넷째, 젊은 세대의 정치적 극단화 문제를 넘어, 뉴미디어를 매개로 한 딥페이크 범죄와 성범죄적 정보 노출이 늘고 있으며, 이러한 현상이 실제 범죄로 이어지는 사례도 증가하고 있다. 과거의 도덕적 범위를 넘어서는 극단적 범죄에 젊은 세대가 무방비로 노출되는 장면도 낯설지 않다. 기성세대의 윤리 기준을 그대로 강요할 필요는 없지만, 오늘의 뉴미디어 공간은 지식과 정보 유통에 관한 윤리적·정치적 제한이 거의 사라진 상태다. 최근 창원에서 성범죄자가 국민 메신저의 익명 채팅 기능을 이용해 두 여중생을 모텔로 유인해 살해한 사건은 이를 극명하게 보여준다. 그럼에도 플랫폼 기업은 이러한 범죄의 통로가 되는 구조에 대해 실질적인 책임을 지거나 충분한 공적 대책을 마련하지 않고 있다. 뉴미디어 공간이 미성년자에게 무차별 범죄의 통로가 되는 현실에 대해서는, 성범죄 예방을 포함한 명확한 책임을 플랫폼 기업에 부과해야 한다.
알고리즘을 공공의 책임 아래 두는 일은, 디지털 시대 민주주의를 지켜내기 위한 최소한의 조건이다.





![[기고] '허위조작정보 근절법'에 대한 단상: 표현의 자유는 안전한가?](https://img.etnews.com/news/article/2025/12/17/news-p.v1.20251217.aa290f51916643cc89599a49cc09f118_P3.jpg)

![38세 성인이 초등생 옷 입은 격…지금 '헌법적 순간'이 왔다 [창간기획 대한민국 '트리거60' <60>]](https://pds.joongang.co.kr/news/component/htmlphoto_mmdata/202512/18/52984ec8-456f-4ca0-b5d8-6ded31c7ea9d.jpg)

![“사람 못 믿어요” 청년들 대인 신뢰도 10년새 20%p 하락 [AI 프리즘*대학생 취준생 뉴스]](https://newsimg.sedaily.com/2025/12/17/2H1RJASQ27_1.jpg)