▲챗GPT는 유창하게 그럴듯한 거짓말을 쏟아내는 환각(hallucination) 현상을 보여주고 있어 챗GPT가 생산하는 결과를 얼마나 신뢰할 수 있을까라는 질문에 봉착한다.
셔터스톡
지난 10월 미국 퓨리서치가 전문가 1만 명을 대상으로 조사해 발표한 '2035 인공지능 변화 전망 보고서'에 의하면 2035년까지 인공지능에 대해 '기대와 우려가 똑같이 크다'가 42%로 가장 많은 가운데, '우려가 더 크다'는 응답(37%)이 '기대가 더 크다'는 응답(18%)보다 더 많았다.
전문가들의 이같은 우려는 인공지능(AI)에 대한 강력한 규제가 필요하다는 공감대 확산으로 이어지고 있다. 인공지능 규제를 위한 국제 협력도 속도가 붙기 시작했다. 지난 1일 영국 버킹엄셔 블레츨리 파크에서는 역사상 첫 인공지능 안전 정상회의가 열려, 미국, 중국, 한국 등 28개국이 동참한 '블레츨리 선언'이 발표되었다. 선언문에는 고도의 능력을 갖춘 '프런티어 인공지능'이 현실로 다가오면서 "매우 심각하고 심지어 재앙에 이를 수 있는 피해가 발생할 수 있다"는 경고와 인간 중심적이고, 신뢰할 수 있으며 책임감 있는 인공지능을 보장하기 위한 국제 협력이 필요하다는 내용이 담겼다.
이보다 며칠 앞선 10월 30일에는 조 바이든 미국 대통령이 인공지능에 대한 강력한 규제 의지를 천명하면서 행정명령에 서명했다. 그동안 미국은 인공지능 개발을 주도하면서 혁신에 무게 중심을 두고, 규제 도입에는 소극적이었다는 평가가 지배적이었다. 하지만 생성형 인공지능으로 인해 딥페이크, 허위정보 등이 확산할 경우 사회 기반을 흔들 수 있다는 우려가 높아지면서 정부가 직접 나서서 기업들의 '책임 있는 개발'을 관리 감독하겠다는 의도로 분석된다.
이처럼 인공지능이 본격적으로 꽃을 피우기도 전에 세계 주요 국가들이 규제를 강조하는 이유는 무엇일까? 작년 겨울 챗GPT 출시 이후 거대 기술기업들 간 첨단 인공지능을 위한 경쟁은 '군비경쟁'에 비견될 정도로 위험한 경로를 보이고 있다. 인공지능은 예측이 어려워 사전에 규제하지 않으면 기술로 인한 부는 사유화되고 그 비용은 사회에 전가될 위험성이 매우 크다. 인공지능 분야의 리더들이 개발 초기 단계부터 강력히 규제해야 한다고 연일 목소리를 높이고 있는 이유다.
인공지능은 인간의 편익을 위해 개발되지만 기술의 특성상 예측이 불가능해 적절히 통제하지 못할 경우 큰 폐해를 야기할 것이라는 '인공지능 딜레마'도 커지고 있다. 마치 소셜미디어가 시민의 자발적 참여를 촉진해 민주주의에 기여하리라는 당초의 기대와 달리 극단화된 의견에 갇히는 '에코 체임버'나 '필터 버블' 현상으로 인해 정치 양극화 심화, 민주주의 혼란 등을 야기하는 '소셜 딜레마'에 빠졌듯이 그와 같은 경로를 밟을 수 있다는 우려다.
게임 체인저 '인공지능'에 대한 불안 확산
1년 전인 2022년 11월 공개된 챗GPT가 몰고 온 파장은 2016년 알파고를 훨씬 뛰어넘는다. 생성형 인공지능, 거대언어모델 등으로 불리는 챗GPT와 같은 인공지능은 어떤 면에서 '게임 체인저'로까지 불리며 충격을 주고 있는가?
거대언어모델(LLM, Large Language Model)은 자연어(우리가 일상적으로 사용하는 말)로 작동하는 기계다. JAVA 같은 프로그래밍 언어 없이도 누구나 일상에서 사용할 수 있다. 챗GPT가 "그래픽 사용자환경(GUI)만큼 혁명적인 기술"(빌 게이츠)로 불리는 이유다. 도스 체제에서 윈도우 체제로 그래픽 사용자환경이 바뀌기 전까지 컴퓨터는 소수 전문가들의 도구였으나 지금과 같은 윈도우 체제에서는 누구나 아이콘 하나로 쉽고 직관적으로 컴퓨터를 조작할 수 있다.
챗GPT는 방대한 양의 데이터를 놀라운 속도로 학습해 인간 지능을 위협하는 수준의 언어능력, 추론 능력을 갖추고 있다. 데이터를 입력하고 과업을 지시하면 글은 물론 그림, 음악과 영상까지도 만들어 낸다. 최근에는 이러한 생성형 인공지능에 멀티모달 기능이 결합하면서 머지않아 누구나 음성, 이미지 등을 이용해 지시하고 도움을 받는 '인공지능 비서'를 가까이 둘 수 있게 될 전망이다.
예컨데 마케팅 분야에서 상품 사진을 올린 후 마케팅 전략과 홍보 문구 등에 대한 조언도 얻을 수 있다. 이제 생성형 인공지능에 눈, 코, 입이 달리면서 인간처럼 다층적으로 대상을 인지할 수 있게 되었다는 평가가 나온다.
하지만 챗GPT는 유창하게 그럴듯한 거짓말을 쏟아내는 환각(hallucination) 현상을 보여주고 있어 챗GPT가 생산하는 결과를 얼마나 신뢰할 수 있을까라는 질문에 봉착한다. 최예진 미국 워싱턴대 교수는 인공지능이 "믿을 수 없을 정도로 똑똑하면서 충격적으로 멍청한 이유"는 "엄청난 양의 데이터를 마구 집어넣어서 인공지능을 가르치다 보니 생긴 불가피한 부작용이라면서 상식의 부재"를 짚었다.
인공지능은 논리나 진실에 관계없이 방대한 양의 텍스트를 학습하고 적절한 답변을 내놓기 위해 추론할 뿐 자신이 무엇을 하고 있는지 인식하지 못한다. 인공지능도 자의식, 감정을 지니고 있다는 논란이 일기도 하지만, 이는 인간처럼 대화하도록 설정된 알고리즘 때문이다. 인공지능 개발 경쟁으로 환각 현상 등의 부작용은 점차 감소하고 있다지만 근본적 해결은 쉽지 않다는 것이 중론이다.
인공지능 시대가 본격화하면서 일자리 불안도 확산하고 있다. 단순 반복 업무를 수행하는 중숙련은 물론 카피라이터, 일러스트레이터 같은 프리랜서 예술가, 마케팅·콘텐츠 부문 등의 고임금 지식 노동자의 일자리도 위태롭다. 지난 여름에는 할리우드 작가·배우 양대 노동조합이 동반 파업을 결의했다. 작가노조의 최대 요구사항은 인공지능 도입에 따른 작가 권리 보장으로, 인공지능이 대본을 집필하거나 재가공하는 것을 금지하라는 것이었다. 배우노조는 인공지능 도입에 따른 배우 초상권 보호를 주요 요구사항으로 내세웠다.
신기술이 인간의 일자리를 대체할지, 오히려 새로운 일자리를 창출할지는 역사적으로 반복되어 온 논쟁이지만 지금까지는 대체로 사라지는 일자리보다 새로운 일자리가 더 많았다. 하지만 인공지능이 고도의 지적노동, 심지어 예술·창작의 영역까지 침범하면서 일의 미래가 위협받고 있으며, 개인들은 모두 각자의 방식으로 불안을 느끼고 있다.
왜 인공지능 규제가 필요한가?