지난 밤 웹소설을 보다 잠든 기억이 있는데, 또 알람보다 먼저 깼다. 내 몸에 내장된 생체시계는 이제 알람보다 정확한 것 같다. 습관처럼 베개 옆에 두었던 폰을 더듬어 찾는다. 아직 눈은 따갑고 머릿속은 몽롱한데, 내 엄지손가락은 이미 스마트폰을 켜고 스크롤 하고 있다.
오늘도 어김없이 정치 뉴스가 피드 상단을 점령했다. 나도 모르게 한숨이 나온다. 어제 친구와 대선 후보 얘기를 잠깐 했을 뿐인데, 내 피드는 마치 CIA 요원처럼 그 대화를 도청하고 관련 기사들을 쏟아낸다. '알고리즘'이란 녀석, 혹시 내 베개 밑에서 자고 있는 건 아닐까?
"스마트폰아, 네가 날 이렇게 잘 아는 건 섬뜩할 정도인데? 그리고 왜 항상 같은 얘기만 들려주니? 우리 관계가 이렇게 단조로워도 괜찮은 거야?"
요즘은 초등학생들도 '유튜브 알고리즘'이란 말을 마치 포켓몬 이름처럼 달고 산다. 하지만 이 디지털 세계의 '마법사'가 우리의 사고방식과 세계관에 어떤 영향을 미치는지 진지하게 생각해본 적이 있는가?
대학 시절 컴퓨터공학 수업에서 알고리즘을 배웠다. 교수님 말씀으로는 그저 "논리적 명령어의 집합"이라고 했다. 마치 레시피 같은 것. 하지만 같은 재료로도 미슐랭 셰프와 나의 요리는 천지차이인 것처럼, 알고리즘도 만드는 사람과 사용되는 데이터에 따라 완전히 다른 결과물을 내놓는다.
2018년, 아마존이 개발한 인공지능(AI) 채용 시스템은 여성 지원자에게 자동으로 감점을 주는 '특별 서비스'를 제공했다. 왜? 10년간의 합격자 데이터가 대부분 남성이었기 때문이다. 인공지능은 이런 식이었다: "여성 체스 동아리 회장이라고? 체스 실력은 인정. 그런데... 여자라고? 음... -10점!" 인간 면접관이 이런 발언을 했다면 당장 해고감이지만, 인공지능은 그저 "데이터를 분석했을 뿐입니다"라고 무표정하게 답할 것이다.
개발자들은 이런 결과를 예상했을까? 아마도 그들은 "완벽하게 공정한" 시스템을 만든다고 자부했을 것이다. 그러나 결과적으로는 '선의로 포장된 차별'을 자동화한 셈이다. "인간의 편견을 제거하겠다"며 만든 인공지능이 오히려 그 편견을 업그레이드해서 돌려준 아이러니.
알고리즘 편향의 더 큰 문제는 데이터 자체에 있다. 인공지능은 그저 주어진 데이터에서 패턴을 찾을 뿐이다. 만약 그 데이터가 이미 사회적 편견과 불평등을 담고 있다면? 컴퓨터 세계의 오래된 격언이 있다. "쓰레기를 넣으면 쓰레기가 나온다(Garbage In, Garbage Out)." 마치 아이에게 매일 특정 드라마만 보여주고 "세상은 이런 곳이야"라고 말하는 것과 같다. 다만 인공지능은 우리 아이들보다 훨씬 더 빠르고, 더 순종적이며, 때로는 더 극단적으로 '학습'한다.
지하철에서 봤던 광고판 문구가 생각난다. "기술은 사회의 거울이다." 처음엔 그저 멋진 카피라고 생각했는데, 지금 보니 정확한 통찰이었다. 알고리즘과 인공지능은 우리 사회의 디지털 거울이다. 우리의 아름다움뿐 아니라 모든 추함까지 그대로 비춰주고, 때로는 증폭시킨다.
그렇다면 이 디지털 왜곡 거울을 어떻게 바로잡을 수 있을까?
첫째, 다양성이 해답이다. 개발팀부터 다양해져야 한다. 모두가 같은 대학 출신 20대 남성 프로그래머라면, '여성 혐오 AI' 탄생을 막을 사람이 누가 있을까?
"이봐, 이 알고리즘이 여성한테 불리한 것 같은데?"
"정말? 난 전혀 몰랐네. 다시 검토해보자."
이런 대화가 자연스럽게 이루어질 때, 더 나은 시스템이 만들어진다.
둘째, 알고리즘도 정기 검진이 필요하다. 사람도 건강검진을 받듯이, AI도 '편향성 검사'를 받아야 한다.
"이 알고리즘, 최근에 좀 살쪘어. 편향성 수치가 높아졌거든. 디지털 다이어트가 필요해."
셋째, 알고리즘의 투명성을 높여야 한다. 현재 많은 인공지능 시스템은 '블랙박스'처럼 작동한다. "왜 이렇게 결정했어?"라고 물으면 "그냥요"라고 대답하는 5살 아이 같다. '설명 가능한 AI'가 필요하다.
"AI님, 왜 이 후보자를 탈락시켰나요?"
"이 후보자는 경험이 부족하고, 필요한 기술이 없으며, 토익 점수가 낮았습니다."
"아, 그렇군요... 근데 토익이 왜 중요한가요?"
"음... 과거 데이터에서 그렇게 나왔습니다..."
넷째, 디지털 리터러시 교육이 필수다. 알고리즘이 우리에게 보여주는 정보를 맹목적으로 믿지 않고 비판적으로 평가할 수 있어야 한다.
"이 뉴스가 내 피드 맨 위에 있네? 잠깐, 이게 정말 중요한 뉴스인지, 아니면 그냥 내가 클릭할 것 같아서 보여주는 건지 생각해봐야겠다."
알고리즘 편향성 문제는 복잡하지만, 우리가 더 의식적으로 기술을 설계하고 사용한다면, 오히려 인공지능이 사회적 불평등을 줄이는 도구가 될 수도 있다. 결국, 이 문제는 단순한 코드 오류가 아니라 우리 사회와 우리 자신의 편견이 디지털 세계에 투영된 결과다.
오늘 아침, 휴대폰을 집어 들기 전에 잠시 생각해본다. 내가 보는 정보들이 정말 중립적인지, 아니면 내 기존의 편향을 강화하도록 설계된 것인지. 기술 자체가 문제가 아니라, 우리가 그 기술을 어떤 가치와 목표를 위해 사용하느냐가 중요하다. 어느 문화비평가의 말처럼 "우리는 도구를 만들고, 그 도구는 다시 우리를 만든다."
결국 이 모든 선택은 우리의 몫이다. "기술은 결코 중립적이지 않다." 여전히 비가 추적추적 내리는 창밖을 보며, 이 생각을 곱씹어본다.