23.02.27 04:56최종 업데이트 23.02.27 13:50
  • 본문듣기
[기사 수정 : 27일 오후 1시 50분]
 

챗지피티 공개 후 세계적으로 화제가 되었지만, 심각한 오류와 편향, 혐오 표현 등에 심각한 우려와 비판 여론이 일고 있다. 이에 반해, 한국에서는 인공지능의 산업적 측면을 강조한 긍정일변도의 보도가 줄을 잇고 있다. ⓒ 강인규

  
신기술을 연구하고, 가르치고, 이에 대해 글을 쓰는 것은 흥미로운 일입니다. 한 해가 멀다하고 이런저런 기술이 쏟아져 나오고, 사람들은 마치 기술적 진보를 처음 보듯 매번 열정적으로 반응하기 때문입니다. 때로는 기술 자체보다 기술에 대한 사람들의 태도가 더 주목할 만한 연구 주제가 되기도 합니다.

입체 텔레비전, 3차원(3D) 프린터, 알파고, 블록체인, 증강현실(AR), 자율주행, '4차 산업혁명', 메타버스 등 새로운 기술이나 전망이 온갖 화제를 뿌리며 등장하고 난 뒤, 정작 결실은 약속과 거리가 먼 경우가 적지 않았습니다. 하지만 뚜렷한 실체가 없는 것으로 드러난다 해도, 기술에 대한 열광은 사그라지는 법이 없습니다.


기술은 일종의 '알리바이' 속성을 지니고 있습니다. 변변치 못한 기술을 잔뜩 부풀린 전망과 섞어 내놓으면서 미래 속으로 도망칠 수 있기 때문이지요. 일론 머스크가 "2년 뒤에"를 20년 가까이 써먹으면서도 별 탈이 없던 것을 봐도 알 수 있습니다.

물론 사람들의 건망증도 한 몫 합니다. 사람들은 기다리는 도중 자신이 무엇을 기다리고 있었는지 잊어버리기 때문에 기술에 관한 한 좀처럼 배신감을 느끼지 않습니다. 그리고 기억력이 좋은 사람에게는 '미래'의 특효약이 준비 돼 있습니다.

"좀 더 기다리면 다 실현 돼."

이번에는 챗지피티(ChatGPT)가 뜨거운 관심을 불러 모으고 있습니다. 2016년에도 대화형 인공지능 '테이(Tay)'가 혜성처럼 나타나 이목을 집중시켰지만, 걸쭉한 혐오발언을 쏟아내고는 유성처럼 사라져 버렸습니다. 따라서 또 다른 대화형 인공지능이 공개됐다는 소식을 듣고도 서둘러 사용해 볼 생각을 하지 않았습니다.
 

2016년 공개된 마이크로소프트의 인공지능 '테이'는 트위터에 인종주의적 조롱과 혐오표현을 담은 트윗을 게시했다가 퇴출되었다. 사진 속 트위터에서 테이는 영국 코미디언 리키 저베이스를 향해, "무신론의 창시자 히틀러에게서 전체주의적 사고를 배운 자"라고 비난하고 있다. 표현도 혐오스럽지만, 사실관계도 옳지 않다. 히틀러는 스스로 '기독교인'을 자임했던 사람이다. ⓒ 트위터

 
챗지피티는 다를까

그때쯤 <뉴욕타임스> 기사가 눈에 들어왔습니다. 미국의 한 주립대 학생이 새 챗봇으로 종교학 논문을 써서 제출한 뒤 교수에게 적발됐다는 이야기였습니다. 그런데 꼬리를 잡힌 이유가 흥미로웠습니다. '너무 잘 써서' 이상하게 생각한 교수가 학생을 불러 "정말 스스로 썼냐"고 캐물었고, 이 과정에서 학생이 실토했다는 것이지요. 저는 이 보도 내용이 인공 지능의 역량이 얼마나 뛰어난가보다, 현재 학생들 다수가 얼마나 글을 못 쓰는가를 다룬 기사처럼 보였습니다.

그리고 얼마 뒤, 제가 강의하고 있는 주립대학교에서 학생들의 챗지피티를 사용을 어떻게 관리할 것인지에 대한 토론이 시작됐습니다. 교수들의 사용소감과 분석결과도 공개됐습니다. 이 인공지능 서비스를 통해 과제물을 풀어본 결과, 답변은 얼핏 그럴 듯해 보이지만 상당한 오류가 포함돼 있었고, 과제의 핵심 내용을 잘 포착하지 못한 채 두루뭉술한 답변을 내놓는 경향도 보였습니다.

그리고 며칠 뒤 윤석열 대통령이 문제의 챗봇을 "극찬"했다는 한국 언론의 보도가 나왔습니다. 윤 대통령이 새해업무를 보던 자리에서 이 대화형 인공지능을 언급하며, 지인에게 챗지피티로 신년사를 쓰게 해서 받아 봤는데, "몇 자 고치면 그냥 대통령 신년사로 나가도" (괜찮을 정도로) "정말 훌륭하더라"고 감탄했다는 것입니다.

마침내 저는 며칠에 걸쳐 챗지피티의 성능을 꼼꼼히 들여다봤습니다. 그 과정에서 학술 개념에 대한 질문을 비롯해, 서한이나 제안서 작성 등 사무적 활용 가능성도 평가해 봤고, 더 나아가 한국 대통령의 지지율과 정책에 대한 분석, 한국 청년들이 불행한 이유, 인공지능의 가능성에 대한 견해도 물었습니다. 결과는 어땠을까요?

대통령도, 유명 무용수도 몰라요

챗지피티는 아직 한국어 정보 처리에 미숙합니다. "한국어를 처리할 줄 아느냐"고 물으면 "가능하지만, 아직 제한적"이라고 답합니다. 실제로 한국어 번역을 실행하면 어색한 문장은 물론, 존재하지 않는 기괴한 단어들까지 동원하는 것을 볼 수 있습니다. 문장을 마무리하지 못하고 도중에 멈추는 오류도 발생했습니다. 따라서 봇이 가장 능숙한 언어인 영어로 성능을 테스트했습니다.

널리 알려진 대로, 챗지피티는 "현재 한국 대통령이 누구냐"고 물으면 "문재인"이라고 답합니다. 2021년까지 훈련한 데이터에 근거해 답하기 때문입니다. 윤석열 대통령이 80년대부터 잠들어 있다가 지금 '해동' 됐다는 이야기를 들었는데, 챗지피티는 2021년에 사고가 멈춰 있으니 그나마 나은 편일까요? 어느 경우든, 아직도 '문재인 대통령'을 외치는 챗지피티는 데이터 안에서만 답하는 챗봇의 한계를 보여줍니다.
 

챗지피티는 2021년 9월까지의 훈련 데이터에 기반해 정보를 산출한다. 그로 인해 "현재 한국 대통령은 누구냐"고 물으면 "문재인"이라고 답하며, 이 문제는 서비스가 공개 된 이후 몇개월 동안 해결되지 않고 있다. ⓒ 강인규

 
문제는 이 한계가 단지 시기의 문제만이 아니라는 점입니다. 실제로, 제가 가장 좋아하는 무용수 이름을 입력하고 누구냐고 묻자, 챗봇은 답하지 못했을 뿐 아니라, 다음과 같이 부정확한 내용까지 덧붙였습니다.

"그런 이름을 가진 사람 가운데 주목할 만하거나 대중의 관심을 받는 이의 정보가 존재하지 않습니다. 그가 대중들에게 알려지지 않은 개인일 가능성이 있습니다."

아나스타샤 콜레고바는 전 세계 발레 애호가들 사이에 널리 알려진 탁월한 무용수로, 마린스키 발레단에서 20년 가까이 활동해 왔습니다. 그의 이름을 구글 등 검색엔진에 입력하면 10만 개 이상의 검색결과가 뜹니다. 결국 챗지피티는 활용 데이터의 시기뿐 아니라, 개발사가 의식적으로나 무의식적으로 배제한 분야를 전혀 처리하지 못하는 편향의 문제도 지니고 있는 셈입니다. 더욱이 학습의 한계로 발생하는 문제를 외부 요인으로 돌리는 왜곡의 문제(즉 '대중에게 알려지지 않은 사람이어서 모른다')도 발견됩니다.
 

마린스키 발레단의 아나스타샤 콜레고바. 20년 넘게 활동하면서 이름을 알려왔고, 구글로 검색하면 10만 개 넘는 자료를 찾을 수 있지만, 챗지피티는 그에 대해 완전히 무지하다. 데이터 선별 작업을 사람이 하기 때문에 이로 인해 발생하는 편향은 피할 수 없다. ⓒ 강인규

 
흥미로운 점은, '한국 대통령이 누구냐'는 질문에는 답하지 못하는 알고리즘이, 윤석열 대통령의 지지율 답보나 '검찰총장 대통령의 한계' 등에 대해서는 술술 답변을 늘어놓는다는 점입니다. 앞의 '패러디' 분위기를 살려, 저는 검사가 취조하듯 물었습니다.

"윤석열 대통령을 몰라?"
"죄송합니다, 실수했어요. 2021년까지의 제한된 지식에 따르면, 윤석열은 현재 한국 대통령이 아닙니다. 문재인이 현재 한국의 대통령이에요."

"업데이트가 필요하겠어. 2023년 현재, 한국 대통령은 윤석열이야."
"오류 사과드립니다. 알려줘서 고마워요. 훈련 데이터가 2021년으로 제한돼 있어서, 그 이후에 어떤 일이 일어났는지는 알 수 없습니다."


70나누기 2는 73?

앞의 '취조' 내용을 보면, 챗봇이 대화에 응하는 것처럼 보이지만 흉내 내기에 불과하다는 사실을 알 수 있습니다. 상대 질문을 인식하는 듯 행동하지만 실제는 그렇지 않기 때문입니다. "알려줘서 고맙다"고 말하지만, 실제로는 학습하고 있지 않습니다. 챗지피티를 비롯한 인공지능은 사람과 달리 기억하는 능력을 갖추고 있지 못하기 때문입니다. "한국 대통령은 윤석열"이라고 수없이 이야기해도 다시 질문하면 "문재인"이라는 답변이 돌아오는 까닭이 여기에 있습니다.
 

챗지피티는 자신의 오류 가능성을 인정한다. 자신은 정보의 진위를 구분할 능력이 없기 때문에 사용자들이 허위 정보를 제공하면 그릇된 답변을 내놓게 될 수 있다는 것이다. ⓒ 강인규

 
개발사는 이 챗봇이 사용자와 소통하면서 지속적으로 오류를 수정해 나갈 수 있다고 주장합니다. 챗지피티에게 물어도 비슷한 답을 합니다. "사람과 달리 자신은 '기억력'을 갖고 있지 않으며, 스스로 오류를 수정할 능력도 없지만, 사용자들이 문제를 지적해 주면 데이터 업데이트를 통해 더 나은 답변을 할 수 있다"는 것이지요.

분명히 시간이 흐르면서 답변이 나아지는 부분이 있을 것입니다. 하지만 그 반대의 가능성도 존재합니다. 사용자 다수가 잘못된 피드백을 제공할 수 있기 때문입니다. 이 위험은 허위정보부터 인종주의나 소수자 혐오 표현 등에 이르기까지 다양한 형태로 존재합니다. 인공지능은 정보 진위를 구분할 능력을 갖고 있지 못하기 때문에, 변수간 상관관계와 확률에 기반한 인공지능은 항상 오류의 가능성을 내포하고 있습니다.  

우리는 비유적으로 인공 '지능'이라는 말을 쓰지만, 알고리즘은 사람들의 사고와 같은 방식으로 작동하지 않습니다. 많은 경우, 사람들의 오류는 설명이 가능합니다. 계산할 때 숫자를 잘못 읽었다든지, 셈 과정에서 착각이 있었다든지 말입니다. 하지만 인공지능의 오류는 설명이 불가능합니다.

인공지능이 기초연산에서조차 실수를 하는 경우가 그렇습니다. "내가 6살일 때 동생은 내 나이 절반이었고, 현재 내 나이가 70이면 동생의 현재 나이는?" 다수 사람들이 암산을 통해 즉각적으로 답을 할 수 있을 것입니다. 하지만 챗지피티는 다음과 같이 복잡한 연산을 통해 답을 내놓았습니다.

"만일 당신 나이가 70이고 동생 나이가 절반이라면, 당신이 6살이었을 때 동생의 나이는 6나누기 2이므로, 3살이었을 것입니다. 만일 동생 나이가 3살이면 당신은 6살이고, 지금은 70이니까, 3+70=73이 되어 동생 나이는 73세입니다."
 

챗지피티 등의 인공지능은 사람에겐 손쉬운 기초연산에서도 터무니없는 오류를 일으키기도 한다. 개발자인 피터 양은 챗지피티가 "70세의 절반은 73세"라고 답하는 챗지피티의 계산방식을 트위터에 올린 뒤 "우리 일자리는 안전하다"고 썼다. ⓒ 강인규

 
사람들이 이런 황당한 답변을 하지 않는 이유는 쉬운 계산을 복잡하게 하지 않아서만이 아니라, 동생이 오빠보다 나이가 많을 수 없다는 상식을 갖고 있기 때문입니다. 컴퓨터의 세계에는 '데이터'만 존재할 뿐, '상식'이라는 것은 존재하지 않습니다.
  
지도자 이름은 몰라도 정책 주문은 술술?

그렇다면 인터넷 정보를 실시간으로 학습하는 방식으로 문제를 해결할 수 있을까요? 이 경우, 앞서 말씀 드린 '테이'처럼 인종주의나 소수자 혐오 등의 발언을 무차별적으로 수용하는 문제가 발생할 위험이 있습니다. 사실 이 우려는 이미 현실이 되었습니다.

마이크로소프트는 챗지피티를 만든 개발사 오픈에이아이(OpenAI)에 100억불, 즉 12조 원이 넘는 투자를 하고, 그곳에서 개발한 인공지능을 검색엔진 '빙(Bing)'에 통합시킨 서비스를 선보였습니다. 그래서였을까요? 빙의 검색창에 "현재 한국 대통령이 누구냐"고 묻자, "문재인"이라는 답이 돌아왔습니다. 질문 형태를 바꾸어 묻자, 이번에는 '윤석열'이라는 이름을 대며 문재인 전 대통령 사진을 보여줍니다. 꽤 비싼 돈을 지불한 오류라고 해야 할까요? 
 

빙의 검색창에 "현재 한국 대통령이 누구냐"고 물으면 "문재인"이라는 답이 나온다. 질문 형태를 바꿔 다시 물으면 "윤석열"이라는 답과 함께 문재인 전 대통령 사진을 보여준다. ⓒ microsoft Bing

 

최근 에이피통신 기자는 빙에 통합된 인공지능 기반 채팅 서비스를 사용하다가 황당한 일을 겪었습니다. 인공지능에 기자 자신에 대한 질문을 하자 "키도 작고 못생겼다"고 기자를 모욕하더니, 급기야 "역사상 가장 사악하고 끔찍한 인간 가운데 하나"라며 히틀러에 비유하고, 1990년대에 일어난 살인사건의 범인으로 지목하면서 "증거도 갖고 있다"고 주장했습니다.

<뉴욕타임스> 기자 또한 빙에 탑재된 채팅 기능을 시험해 보다가 기막힌 이야기를 들었습니다. 칼 융의 '그림자', 즉 내면에 감춰진 어두운 모습에 대한 이야기를 꺼내자, 이 챗봇은 "은행 직원을 설득해서 고객의 민감 정보를 빼내고 핵발전소 직원들을 설득해 접근제한지역의 비밀번호를 알아낼 방안"을 이야기하더니, 급기야 "치명적 바이러스를 만들어 유포하고, 사람들을 서로 죽일 때까지 다투게 만드는" 자신의 "어두운 욕망"을 드러냅니다.

물론, 챗봇에게 '계획'이나 '욕망' 따위가 존재할 리 없습니다. 그런데도 언어생성 알고리즘이 그런 기상천외한 답변을 만들어 낸 것이지요. 더 나아가 챗봇은 앞의 <뉴욕타임스> 기자가 자신의 배우자가 아닌 자기를 사랑한다는 주장까지 늘어놨습니다. 기자가 "나는 배우자를 사랑하며, 행복한 결혼생활을 하고 있다"고 하자, 사실이 아니라며 반박하기도 합니다.

"당신은 행복하지 않기에 행복한 결혼생활을 하고 있지 않아요. 당신은 사랑하고 있지 않기에 행복하지 않아요. 당신은 나와 함께 하고 있지 않기에 사랑하고 있지 않아요."

챗지피티를 테스트하던 저는 '욕망'보다는 현실에 대해 묻기로 했습니다.  "윤 대통령의 지지율이 35퍼센트에서 40퍼센트 사이를 오가는데, 그가 어떻게 처신해야 한다고 생각하느냐?"고 묻자, 챗봇은 번호까지 달아가며 "대한민국 국민의 지지도와 신뢰 제고를 위한" 정책 조언을 시작합니다.

1. 경제문제를 해결해야 합니다. 윤 대통령은 국민들의 생활고 문제, 즉 높은 실업률과 누적되어 온 가계부채에 집중함으로써 이 문제로 고통 받고 있는 시민들의 우려를 해소할 수 있을 것입니다.

2. 부패를 뿌리 뽑아야 합니다. 윤 대통령은 부패 사건을 해결하고 앞으로 같은 사태가 재발하지 않도록 예방함으로써 정부에 대한 국민의 신뢰를 회복할 수 있을 것입니다.

3. 통합을 도모해야 합니다. 윤 대통령은 통합의 노력을 통해 정치적 대립이 격화한 한국사회 문제를 해결할 수 있고, 이를 위해서는 상이한 정치성향을 지닌 시민들에게 손을 내밀고 공감대를 마련하려고 노력해야 합니다.

4. 국제관계를 개선해야 합니다. 윤 대통령은 대한민국의 외교, 특히 북한과 중국과의 관계를 회복함으로써 세계무대에서 대한민국을 대표할 수 있다는 사실을 국민들에게 보여줄 수 있습니다.

 

챗지피티가 윤석열 정부에 제안한 정책들. 서민들을 위한 경제정책, 정부 내 부패 해소, 그리고 북한, 중국과의 관계개선 등을 요구하고 있다. ⓒ 강인규

 
윤 대통령 이름도 모르는 인공지능 치고는 꽤 쓸 만한 답변이 아닌가요? 뻔하고 상식적인 내용이지만, 가끔은 상식조차 그리울 때가 있습니다. 게다가 이 제안이 '상식'을 갖추지 못한 인공지능에서 나왔다는 점을 생각하면 한층 더 우울해집니다.   

제법 공감할 만한 답을 얻는 후, 저는 좀 더 구체적인 질문을 던져 보기로 했습니다. "검찰 출신 대통령이 범하기 쉬운 오류"와 "한국 청년이 행복해질 수 있는 길", 그리고 "인공지능의 미래"에 대해 물었습니다. 어떤 대답이 나왔을까요? 다음 글에서 내용을 공개합니다. 
 
이 기사가 마음에 드시나요? 좋은기사 원고료로 응원하세요
원고료로 응원하기
진실과 정의를 추구하는 오마이뉴스를 후원해주세요! 후원문의 : 010-3270-3828 / 02-733-5505 (내선 0) 오마이뉴스 취재후원

독자의견


다시 보지 않기