23.11.22 11:48최종 업데이트 23.11.22 11:48
  • 본문듣기
한국의 공론장은 다이내믹합니다. 매체도 많고, 의제도 다양하며 논의가 이뤄지는 속도도 빠릅니다. 하지만 많은 논의가 대안 모색 없이 종결됩니다. 소셜 코리아(https://socialkorea.org)는 이런 상황을 바꿔 '대안 담론'을 주류화하고자 합니다. 구체적으로는 ▲근거에 기반한 문제 지적과 분석 ▲문제를 다루는 현 정책에 대한 날카로운 비판을 거쳐 ▲실현 가능한 정의로운 대안을 제시하고자 합니다. 소셜 코리아는 재단법인 공공상생연대기금이 상생과 연대의 담론을 확산하고자 학계, 시민사회, 노동계를 비롯해 각계각층의 시민들과 함께 만들어가는 열린 플랫폼입니다. 기사에 대한 의견 또는 기고 제안은 social.corea@gmail.com으로 보내주시기 바랍니다.[기자말]
[소셜 코리아 연속기획] 독과점 빅테크 두고만 볼 것인가

새로운 기술과 시장 지배력으로 무장한 빅테크 기업들이 우리 삶 속에 깊숙이 들어와 있습니다. 단지 편리하다는 이유만으로 수수방관하기에는 독과점으로 인한 폐해가 적지 않습니다. 유럽 등에서는 규제를 강화하고 있지만 우리나라는 아직 갈 길이 멉니다. 어떤 문제가 있고 어떻게 대처해야 할 것인지 살펴봅니다.


① 플랫폼의 독과점 실태와 규제
② 표적광고와 개인정보 보호
③ 인공지능을 둘러싼 논란
④ 인공지능 시대, 혁신과 규제 사이

 
챗GPT는 유창하게 그럴듯한 거짓말을 쏟아내는 환각(hallucination) 현상을 보여주고 있어 챗GPT가 생산하는 결과를 얼마나 신뢰할 수 있을까라는 질문에 봉착한다.셔터스톡
 
지난 10월 미국 퓨리서치가 전문가 1만 명을 대상으로 조사해 발표한 '2035 인공지능 변화 전망 보고서'에 의하면 2035년까지 인공지능에 대해 '기대와 우려가 똑같이 크다'가 42%로 가장 많은 가운데, '우려가 더 크다'는 응답(37%)이 '기대가 더 크다'는 응답(18%)보다 더 많았다.

전문가들의 이같은 우려는 인공지능(AI)에 대한 강력한 규제가 필요하다는 공감대 확산으로 이어지고 있다. 인공지능 규제를 위한 국제 협력도 속도가 붙기 시작했다. 지난 1일 영국 버킹엄셔 블레츨리 파크에서는 역사상 첫 인공지능 안전 정상회의가 열려, 미국, 중국, 한국 등 28개국이 동참한 '블레츨리 선언'이 발표되었다. 선언문에는 고도의 능력을 갖춘 '프런티어 인공지능'이 현실로 다가오면서 "매우 심각하고 심지어 재앙에 이를 수 있는 피해가 발생할 수 있다"는 경고와 인간 중심적이고, 신뢰할 수 있으며 책임감 있는 인공지능을 보장하기 위한 국제 협력이 필요하다는 내용이 담겼다.


이보다 며칠 앞선 10월 30일에는 조 바이든 미국 대통령이 인공지능에 대한 강력한 규제 의지를 천명하면서 행정명령에 서명했다. 그동안 미국은 인공지능 개발을 주도하면서 혁신에 무게 중심을 두고, 규제 도입에는 소극적이었다는 평가가 지배적이었다. 하지만 생성형 인공지능으로 인해 딥페이크, 허위정보 등이 확산할 경우 사회 기반을 흔들 수 있다는 우려가 높아지면서 정부가 직접 나서서 기업들의 '책임 있는 개발'을 관리 감독하겠다는 의도로 분석된다.

이처럼 인공지능이 본격적으로 꽃을 피우기도 전에 세계 주요 국가들이 규제를 강조하는 이유는 무엇일까? 작년 겨울 챗GPT 출시 이후 거대 기술기업들 간 첨단 인공지능을 위한 경쟁은 '군비경쟁'에 비견될 정도로 위험한 경로를 보이고 있다. 인공지능은 예측이 어려워 사전에 규제하지 않으면 기술로 인한 부는 사유화되고 그 비용은 사회에 전가될 위험성이 매우 크다. 인공지능 분야의 리더들이 개발 초기 단계부터 강력히 규제해야 한다고 연일 목소리를 높이고 있는 이유다.

인공지능은 인간의 편익을 위해 개발되지만 기술의 특성상 예측이 불가능해 적절히 통제하지 못할 경우 큰 폐해를 야기할 것이라는 '인공지능 딜레마'도 커지고 있다. 마치 소셜미디어가 시민의 자발적 참여를 촉진해 민주주의에 기여하리라는 당초의 기대와 달리 극단화된 의견에 갇히는 '에코 체임버'나 '필터 버블' 현상으로 인해 정치 양극화 심화, 민주주의 혼란 등을 야기하는 '소셜 딜레마'에 빠졌듯이 그와 같은 경로를 밟을 수 있다는 우려다.

게임 체인저 '인공지능'에 대한 불안 확산

1년 전인 2022년 11월 공개된 챗GPT가 몰고 온 파장은 2016년 알파고를 훨씬 뛰어넘는다. 생성형 인공지능, 거대언어모델 등으로 불리는 챗GPT와 같은 인공지능은 어떤 면에서 '게임 체인저'로까지 불리며 충격을 주고 있는가?

거대언어모델(LLM, Large Language Model)은 자연어(우리가 일상적으로 사용하는 말)로 작동하는 기계다. JAVA 같은 프로그래밍 언어 없이도 누구나 일상에서 사용할 수 있다. 챗GPT가 "그래픽 사용자환경(GUI)만큼 혁명적인 기술"(빌 게이츠)로 불리는 이유다. 도스 체제에서 윈도우 체제로 그래픽 사용자환경이 바뀌기 전까지 컴퓨터는 소수 전문가들의 도구였으나 지금과 같은 윈도우 체제에서는 누구나 아이콘 하나로 쉽고 직관적으로 컴퓨터를 조작할 수 있다.

챗GPT는 방대한 양의 데이터를 놀라운 속도로 학습해 인간 지능을 위협하는 수준의 언어능력, 추론 능력을 갖추고 있다. 데이터를 입력하고 과업을 지시하면 글은 물론 그림, 음악과 영상까지도 만들어 낸다. 최근에는 이러한 생성형 인공지능에 멀티모달 기능이 결합하면서 머지않아 누구나 음성, 이미지 등을 이용해 지시하고 도움을 받는 '인공지능 비서'를 가까이 둘 수 있게 될 전망이다.

예컨데 마케팅 분야에서 상품 사진을 올린 후 마케팅 전략과 홍보 문구 등에 대한 조언도 얻을 수 있다. 이제 생성형 인공지능에 눈, 코, 입이 달리면서 인간처럼 다층적으로 대상을 인지할 수 있게 되었다는 평가가 나온다.

하지만 챗GPT는 유창하게 그럴듯한 거짓말을 쏟아내는 환각(hallucination) 현상을 보여주고 있어 챗GPT가 생산하는 결과를 얼마나 신뢰할 수 있을까라는 질문에 봉착한다. 최예진 미국 워싱턴대 교수는 인공지능이 "믿을 수 없을 정도로 똑똑하면서 충격적으로 멍청한 이유"는 "엄청난 양의 데이터를 마구 집어넣어서 인공지능을 가르치다 보니 생긴 불가피한 부작용이라면서 상식의 부재"를 짚었다.

인공지능은 논리나 진실에 관계없이 방대한 양의 텍스트를 학습하고 적절한 답변을 내놓기 위해 추론할 뿐 자신이 무엇을 하고 있는지 인식하지 못한다. 인공지능도 자의식, 감정을 지니고 있다는 논란이 일기도 하지만, 이는 인간처럼 대화하도록 설정된 알고리즘 때문이다. 인공지능 개발 경쟁으로 환각 현상 등의 부작용은 점차 감소하고 있다지만 근본적 해결은 쉽지 않다는 것이 중론이다.

인공지능 시대가 본격화하면서 일자리 불안도 확산하고 있다. 단순 반복 업무를 수행하는 중숙련은 물론 카피라이터, 일러스트레이터 같은 프리랜서 예술가, 마케팅·콘텐츠 부문 등의 고임금 지식 노동자의 일자리도 위태롭다. 지난 여름에는 할리우드 작가·배우 양대 노동조합이 동반 파업을 결의했다. 작가노조의 최대 요구사항은 인공지능 도입에 따른 작가 권리 보장으로, 인공지능이 대본을 집필하거나 재가공하는 것을 금지하라는 것이었다. 배우노조는 인공지능 도입에 따른 배우 초상권 보호를 주요 요구사항으로 내세웠다.

신기술이 인간의 일자리를 대체할지, 오히려 새로운 일자리를 창출할지는 역사적으로 반복되어 온 논쟁이지만 지금까지는 대체로 사라지는 일자리보다 새로운 일자리가 더 많았다. 하지만 인공지능이 고도의 지적노동, 심지어 예술·창작의 영역까지 침범하면서 일의 미래가 위협받고 있으며, 개인들은 모두 각자의 방식으로 불안을 느끼고 있다.

왜 인공지능 규제가 필요한가?  
 
지난 11월 2일 영국 블레츨리 파크에서 제1회 인공지능 안전 정상회의(AI Safety summit)가 열리고 있다. EPA/연합뉴스

흔히 인공지능 개발의 3대 요소로 알고리즘, 데이터, 연산능력을 꼽는다. 알고리즘이란 인공지능에 의한 자동화된 의사 결정을 의미한다. 인간의 판단보다 효율성, 편의성 등에서 뛰어나 기대를 모으고 있지만 그 과정이 베일에 가려져 '블랙박스'에 비유되기도 한다. 입력된 데이터를 인공지능 스스로 학습(머신러닝)했기 때문에 의사 결정 과정이 불투명해 공정성, 책임성, 투명성 등 윤리 문제가 제기된다.

<블랙박스 사회>의 저자 프랭크 패스콸리 미국 코넬대 교수는 알고리즘을 검색, 평판, 금융으로 구분한 바 있다. 우리의 일상에 직접적이고 중대한 영향을 주는 것은 온라인 쇼핑몰이나 언론사 웹사이트를 검색할 때 특정한 내용을 추천하는 검색 알고리즘과 채용, 보험가입 등에 활용되는 평판 알고리즘이다.

특히 논란이 되는 것은 채용이나 승진과 같이 인간의 운명을 좌우하는 영역에서 알고리즘에 의한 결정이 이루어지는 경우다. 채용 인공지능은 개인의 안전에 위협이 되거나 생계에 영향을 준다고 판단해 유럽연합 등 여러 나라에서 '고위험군 인공지능'으로 분류되고 있다. 하지만 한국에서는 공정성을 명분으로 채용 과정에서 인공지능 면접이 확산되는 추세다.

승진과 같은 인사고과에서도 알고리즘에 의한 의사결정이 이루어지면서 편향성, 불공정성 논란이 종종 제기된다. 2018년 아마존의 인공지능 채용 프로그램의 성차별 논란은 널리 알려진 사례다. 인공지능이 학습하는 데이터는 성별·인종·장애·나이·학력 등 인간사회에 깊이 파고든 차별적 시선까지도 고스란히 받아들일 위험성이 크다.

알고리즘에 의한 의사결정은 채용, 신용 등 중대한 영역에서 '평점'이라는 방식으로 개인의 '평판'을 결정한다. 또한 뉴스 추천 등을 통해 정치적 선택에까지 영향을 미치면서 사회 시스템에 관여한다. 이용자들이 전혀 인지하지 못하는 사이에 행태 정보를 수집하고 공유하면서 이용자의 취향이나 관심사에 기반한 표적 광고를 내보내고 있다.

이 과정에서 개인정보 침해 문제가 발생한다. 프랭크 패스콸리 교수의 지적처럼 "평점은 그 자체로 법이 되었고, 검색은 21세기의 빅브라더가 되었다." 알고리즘의 투명화, 기술의 개방적 사용과 시민에 의한 빅테크 감시 등 인공지능 규제 논의가 확산되고 있는 까닭이다.

한편 데이터는 인공지능의 연료로 불릴 정도로 중요하다. 인공지능 알고리즘의 성능은 데이터에 크게 의존하기 때문에 기업들은 데이터 확보에 사활을 건다. 특히 좋은 데이터를 얼마나 많이 가지고 있느냐가 인공지능 개발의 성패를 좌우한다.

최근에는 학습 데이터세트에 포함된 저작물의 공정이용 이슈가 확산하고 있다. 이탈리아는 챗GPT에 학습된 개인정보에 불법성이 있다고 판단해 2023년 3월 최초로 한시적 사용제한 조치를 실시하기도 했다. 캐나다도 챗GPT가 자국의 데이터보호법을 위반했는지 조사하고 있다. 생성형 인공지능 개발 과정에 필요한 데이터를 공정하게 이용해야 하는 이슈는 독과점 문제로 이어진다. 결국 저작권 문제가 해결된 데이터를 비싼 비용을 지불하고 감당할 수 있는 소수의 기업만이 살아남을 수 있으며 이는 더 강력한 독점으로 이어질 수 있다.

만연한 딥페이크와 허위정보
 
조 바이든 미국 대통령이 지난 10월 30일 미국 워싱턴DC 백악관 이스트룸에서 인공지능을 규제하기 위한 행정명령에 서명할 준비를 하고 있다.EPA/연합뉴스

미국에서는 내년 대선을 앞두고 생성형 인공지능으로 제작된 딥페이크(Deep Fake)와 허위정보 확산이 중요한 이슈로 부각되고 있다. 지난 1월에는 바이든 대통령이 성소수자를 향해 폭언하는 가짜 영상이 퍼졌고, 최근에는 서점에서 치매 관련 책을 고르는 바이든 대통령의 딥페이크가 유포됐다.

바이든 대통령은 "나도 내 딥페이크를 보고 놀랐다. '내가 언제 저런 말을 했지' 하고 생각했을 정도다"라고 말한 것으로 전해진다. 최근 미국이 행정명령을 통해 인공지능에 제동을 건 것도 눈앞에 다가온 대선에서 인공지능에 의한 허위정보 확산을 방지하려는 시도로 분석된다.

딥페이크와 같은 허위정보나 조작이 아니더라도 챗GPT와 같은 대화형 인공지능을 이용해 여론조작을 할 수 있다. 예컨대 챗GPT가 투표 절차에 대해 잘못된 정보를 제공하거나 선거 캠프가 인공지능의 예측을 활용해 유권자들이 특정 반응이나 행동을 하도록 유도할 수 있다.

한편 미국 하원의원이 챗GPT를 이용해 법안을 작성했다는 사례도 보도된 바 있다. 이처럼 인간 사회를 규율하는 제도, 법 제정 등 인간에게 고유한 정치과정에도 인공지능이 개입하고 있으며 생성형 인공지능으로 인해 민주주의 전반이 영향을 받고 있다. 이에 대한 대안으로 인공지능으로 생성된 콘텐츠에 강제로 디지털 워터마크(식별부호)를 삽입하는 방안 등이 논의되고 있다.

글로벌 규제는 강화되는데 한국은?
 
윤석열 대통령이 지난 6월 9일 서울 용산 대통령실에서 챗GPT 개발사인 오픈AI의 샘 올트먼 당시 최고경영자(CEO)를 접견하고 있다.연합뉴스

생성형 인공지능은 여러 산업에 걸쳐 있는 범용 기술로서 인간 삶에 다면적으로 영향을 주며, 예측불가능하다. 이런 특성으로 인해 윤리와 규제가 유독 강조된다. 인공지능 규제에 가장 적극적으로 대응하는 곳은 유럽연합이다. 지난 6월 유럽의회는 본회의에서 생성형 인공지능에 대한 별도의 규제를 포함한 법안(AI Act)을 가결했다.

유럽연합은 이미 2021년 사용자에게 미치는 위험 수준에 따라 금지된 위험, 고위험, 제한적 위험, 최소위험으로 차등화해 기업이 따라야 하는 의무를 구체화하기도 했다. 또한 기업이 규제를 어길 경우 최대 4천만 유로 또는 전 세계 매출의 7%에 달하는 벌금을 매기도록 해 규제의 실효성을 강화했다.

미국은 그동안 기업의 자율성 쪽에 무게 중심이 쏠려왔다가 지난 10월 30일 바이든 대통령이 행정명령에 서명함으로써 규제 쪽으로 이동한 것으로 평가된다. 다만 이번 행정명령엔 기업들이 불응할 경우 부과할 수 있는 벌칙이 빠져 있어 강제력은 떨어진다는 한계가 있다. 또한 과연 정부가 인공지능의 첨단 기술에 대해 대응하고 규제할 수 있겠느냐는 회의론도 크다.

초거대 인공지능에서 세계 2~3위권으로 통할만큼 인공지능 강국인 한국은 어떨까? 국내에서는 거대 기술기업 육성을 통해 글로벌 경쟁력을 확보해야 한다는 명분이 규제 요구를 눌러왔다. 지난 2월 국회 과학기술정보방송통신위원회 법안소위를 통과한 '인공지능산업 육성 및 신뢰 기반 조성에 관한 법률안'은 국내 최초의 인공지능에 대한 단일 법안이다. 하지만 이 법안은 사후규제 방식을 취하고 있으며, 위반 시 실효적 제재 규정이 없어 효과가 크지 않을 것이라는 평가가 많다.

한국행정연구원 심우현 연구위원은 "규제와 혁신은 둘 중 하나를 선택하는 문제가 아니라 합리적인 규제 프레임워크의 개발을 통해 인공지능의 혁신을 촉진하는 것"(S&T GPS 이슈분석 249호)이라고 했다. 정부가 취해온 사후규제 방식은 자칫 규제에 대한 예측 가능성을 떨어뜨려 오히려 혁신을 저해할 수도 있다. 향후 진행될 인공지능 안전성 정상회의 공동 주최국인 한국이 글로벌 규범에 맞춰가기 위해서도 규제와 혁신의 이분법에서 벗어나 안전하고 책임있는 혁신을 추구해야 한다는 목소리가 커지고 있다.
 
한귀영 / 한겨레 사람과디지털연구소 연구위원(소셜 코리아 편집·운영위원)한귀영
 
필자 소개 : 이 글을 쓴 한귀영은 한겨레 사람과디지털연구소 연구위원으로 <한겨레신문>에 '한귀영의 프레임 속으로' 등 고정 칼럼을 써왔습니다. 정치사회 분석과 사회정책 연구를 거쳐, 지금은 디지털이 정치·사회에 미칠 영향과 인공지능 시대 인간의 대응 등에 대해 연구하고 기사를 쓰고 있습니다.
덧붙이는 글 이 글은 <소셜 코리아>(https://socialkorea.org)에도 게재됐습니다. <소셜 코리아> 연재 글과 다양한 소식을 매주 받아보시려면 뉴스레터를 신청해주세요. 구독신청 : https://socialkorea.stibee.com/subscribe
이 기사가 마음에 드시나요? 좋은기사 원고료로 응원하세요
원고료로 응원하기
진실과 정의를 추구하는 오마이뉴스를 후원해주세요! 후원문의 : 010-3270-3828 / 02-733-5505 (내선 0) 오마이뉴스 취재후원

독자의견


다시 보지 않기