똑똑하게 활용하는 법
무엇을 도와드릴까요?
오마이뉴스에서 편집기자로 일하고 있습니다. 시민기자들이 보내주시는 기사를 검토하고 편집하는 게 주 업무인데요. 지난 여름부터였을 겁니다. 본문을 읽다가 멈칫하는 순간들이 있었습니다. '기자님 글 스타일이 달라지셨네?' '이 문체, 어디서 많이 봤는데…'
궁금함이 커져가던 어느 날, 조심스럽게 여쭤봤습니다. "혹시 기사 쓸 때 챗GPT를 활용하시나요?" 질문을 받은 시민기자께선 '문장을 다듬을 때 도움을 받는다'고 솔직하게 알려주셨습니다.
더는 숨길 일도 아닙니다. 지난해 4월 한국언론진흥재단 미디어연구센터 온라인 설문조사 결과, 대상자 1748명 중 최근 1개월 이내에 생성형 AI(인공지능)를 쓴 사람은 57.2%(1000명)였고, 생성형 AI로 글을 쓰거나 다듬는다는 응답은 51.1%였습니다. 2명 중 1명은 글쓰기에 OpenAI의 챗GPT나 구글 제미나이 등을 활용한 셈입니다.
생성형 AI로 사용한 기능
(단위: %)AI를 잘 활용하면 혼자 일할 때보다 훨씬 풍부한 결과를 만들 수 있다고들 합니다. 글쓰기도 마찬가지겠죠. 그런데 간혹 시민기자가 AI를 활용해 쓴 칼럼이나 에세이를 정식 기사로 채택하지 못할 때가 있습니다. 내용이 정확하지 않거나 시의성 있는 정보·관점·통찰·해석·이야기 등이 없으면 화려한 미사여구나 맞춤법에 맞는 문장을 구사했다 할지라도 정식 기사로 채택할 수 없습니다. 저희는 새롭고 정확한 소식을 전하는 언론이니까요.
특히 AI의 이른바 '환각(hallucination)' 오류로 인한 거짓 결과는 언론의 신뢰도에 치명적인 영향을 미치기에 더욱 조심스럽습니다. 정확하지 않은 정보가 담긴 기사를 내보내면, 그 피해는 고스란히 독자들의 몫이 되기 때문입니다.
AI를 활용하되 오류를 줄이고 나만의 경험과 생각을 살려 글을 쓸 방법이 없을까요? 지난 몇 개월 간 편집기자로서 여러 가지 도구를 써가며 실험했고, 완벽하진 않지만 글쓰기에 AI를 최대한 '안전하게' 활용하는 노하우를 아주 조금은 터득했습니다. 그 결과를 여러분과 공유해보려 합니다.
이것만큼은 하지 말자 : AI가 쓰거나 고친 글을 검증하지 않고 발행하기
글 좀 쓴다는 이들은 하나같이 '퇴고'를 강조합니다. 내가 작성한 글을 읽어보며 논지 전개가 매끄러운지, 틀린 사실은 없는지, 문장이 물 흐르듯 이어지는지 스스로 점검하는 과정을 뜻합니다.
여러분도 아시다시피 AI도 틀릴 때가 있습니다. 그러므로 챗GPT 등에 맡겨서 쓰거나 다듬은 결과물도 발행하거나 어딘가에 보내기 전에 사람의 힘으로 직접 '검증'해야 합니다. 그렇다면 무엇을 확인해야 할까요?
첫째, 본문에 언급된 근거나 정보들 중 내가 모르는 내용은 사실인지 찾아봐야 합니다. 예를 들기 위해 구글 제미나이에 '청소년의 스마트폰 사용을 규제해야 한다는 주장을 담은 칼럼을 써 달라'고 요청하자, 유려한 글 한 편이 뚝딱 완성됐습니다. 칼럼에서 제시된 근거들은 과연 다 사실일까요?
[칼럼] 스마트폰에서 아이들의 뇌를 구하라
규제 반대론자들은 '디지털 리터러시 교육'으로 충분하다고 말한다. 하지만 이는 인간의 본능과 뇌과학을 무시한 안일한 태도다.
첫째, 뇌 구조의 변형은 더 이상 가설이 아닌 과학적 사실이다. 미국 국립보건원(NIH)이 9~10세 아동 4500명을 대상으로 진행한 대규모 연구(ABCD Study) 결과에 따르면, 하루 7시간 이상 스마트폰 등 스크린에 노출된 아이들의 대뇌 피질 두께는 정상군보다 얇았다.
둘째, 문해력 저하와 사고력의 퇴화는 통계로 증명된다. OECD가 주관하는 국제 학업성취도 평가(PISA) 2018 분석 결과, 디지털 기기를 수업 시간에 많이 사용할수록 읽기 성적은 오히려 떨어지는 경향을 보였다. <21세기 독자: 디지털 세상에서의 문해력 개발>의 챕터 3 '학습의 기회: 교육 실천과 디지털 읽기'에 따르면, 수업 시간에 디지털 기기를 사용하는 시간이 길어질수록(high use), 읽기 성적은 급격히 하락했다.
- ① 거짓 : 관련 보고서에는 해당 내용이 없음.
- ② 거짓 : 챕터 3의 제목은 “PISA 2018 읽기 평가의 동적 탐색: 읽기, 탐색, 상호작용”임.
셋째, 스마트폰은 청소년 정신건강 붕괴의 '스모킹 건'이다. 유네스코(UNESCO) 역시 '2023 글로벌 교육 모니터링 보고서'를 통해 과도한 스마트폰 사용이 정서 불안정과 학업 성취도 저하와 직결된다며, 학교 내 스마트폰 사용 금지를 강력히 권고했다.
"OECD가 주관하는 국제 학업성취도 평가(PISA) 2018 분석 결과, 디지털 기기를 수업 시간에 많이 사용할수록 읽기 성적은 오히려 떨어지는 경향을 보였다"고 하는데, 아무리 찾아봐도 해당 내용이 없어 제미나이에 '정확한 출처를 발췌해달라'고 재차 물었습니다.
제미나이는 2021년 5월 발간된 <21세기 독자: 디지털 세상에서의 문해력 개발(21st-Century Readers: Developing Literacy Skills in a Digital World)>보고서의 'Chapter 3. Opportunity to learn: Education practices and digital reading' 부분을 보면 관련 서술이 나온다며, "수업 시간에 디지털 기기를 사용하는 시간이 길어질수록(high use), 읽기 성적은 하락했다"는 영어 원문을 제시했습니다.
그러나 '챕터 3' 제목은 "Dynamic Navigation in PISA 2018 Reading Assessment: Read, Explore and Interact"였습니다. 위에서 제시한 영어 원문들도 보고서엔 존재하지 않았습니다. 거짓 정보였던 겁니다.
AI 응답 중 '중대한 오류' 비율
(단위: %)실제로 유럽공영방송연합(EBU)과 BBC가 18개국 22개 공영방송과 함께 조사해 지난해 10월 발표한 결과를 보면, 뉴스 관련 질문에 AI 어시스턴트가 내놓은 응답 3000여 건 중 45%는 심각한 오류가 포함돼 있었습니다. 가장 흔한 오류는 출처 인용(31%)이었고, 그 다음은 정확성(20%)이었습니다.
따라서 AI 응답으로 얻은 논거나 자료, 인용문은 꼭 원문이나 언론 보도 등을 확인해보는 게 안전합니다. 하다 못해 AI에게 '제시한 근거의 출처를 제시해달라'라고 물어야 합니다.
둘째, 직접 쓴 초고의 문장을 다듬어달라고 하거나 특정 용도의 글로 바꿔달라고 요청할 때도 조심해야 합니다. 글을 고치는 과정에서 다른 사람의 발언을 지나치게 윤문하다가 왜곡되는 경우가 있기 때문입니다.
아래는 이재명 대통령의 2025년 12월 2일 민주평화통일자문회의 의장 연설을 바탕으로 챗GPT가 작성한 스트레이트 기사 중 일부 내용입니다.
이재명 대통령은 25일 "통일은 일방의 흡수나 억압이 아니라, 평화를 기반으로 모두가 동의할 수 있는 방식이어야 한다"며 "민주주의에 기초한 평화 정착만이 통일로 가는 길"이라고 밝혔다.
- ➡️ 사실 : 이재명 대통령은 25일 "일방이 일방을 흡수하거나 억압하는 억압하는 방식은 통일이 아니다. 평화적인 방법으로 모두가 흔쾌이 동의하는 내용·방식이어야 한다"며 "민주적인 방식으로 평화 정착을 통해 반드시 통일의 길로 가면 좋겠다"라고 밝혔다.
이 대통령은 이날 열린 제22기 민주평화통일자문회의 출범회의에서 의장 자격으로 인사말을 하며 "민주평통은 헌법이 직접 규정한 헌법기관으로, 대한민국이 지향해야 할 핵심 가치를 모두 담고 있다"고 말했다. 이어 "분단된 대한민국이 언젠가는 반드시 가야 할 길이 통일이며, 그 첫걸음을 여는 주체가 바로 민주평통 자문위원"이라고 강조했다.
- ➡️ 사실 : 이 대통령은 이날 열린 제22기 민주평화통일자문회의 출범회의에서 의장 자격으로 인사말을 하며 "민주평통은 대한민국이 지향해야 할 핵심 가치를 담고 있는 헌법이 정한 기관"이라고 말했다. 이어 "통일은 분단된 대한민국이 언젠가 가야 할 길 아니겠나. 여러분이 바로 그 첫길을 여는 헌법 기관 민주평통 위원이라는 사실을 잊지 말아 달라"고 강조했다.
그럴싸하죠? 하지만 이렇게 기사가 나가면 큰일 납니다. 아래 영상 속 이 대통령의 실제 발언 비교해보면 왜인지 알 수 있습니다.
어딘가 유사하고 취지 또한 비슷하지만, 너무 축약한 나머지 맥락이 틀어졌습니다. 발언을 인용할 때는 최대한 그대로 옮겨와야 합니다. 발언자의 어감과 의도가 왜곡되면 안 되기 때문입니다.
"통일의 길은 평화를 기반으로 해야 합니다. 일방이 일방을 흡수하거나 억압하는 방식으로 하는 통일은 통일이 아닙니다. 통일은 반드시 평화적인 방법으로 모두가 흔쾌히 동의하는 내용, 동의할 수 있는 방식이어야 합니다."
이처럼 인터뷰나 발언 인용이 들어간 기사, 칼럼, 에세이에 AI를 활용할 때는 '큰따옴표로 인용한 발언은 최대한 건드리지 말고 오탈자만 바로잡아줘'라고 요청하면 문제가 훨씬 줄어듭니다.
셋째, AI 문체 특유의 '나쁜 버릇'을 바로잡아주면 좋습니다. 생성형 AI를 활용하면 맞춤법이나 비문을 쉽게 정정할 수 있죠. 하지만 AI의 도움을 받은 글을 반복해 읽다 보면 썩 좋지 않은 특유의 습관을 발견하게 됩니다.
진지한 주장 글 혹은 정보를 전하는 기사인데 마치 시를 쓴 듯 문장마다 너무 짧은 호흡으로 줄 바꿈이 돼 있다거나, 강조하는 작은따옴표나 큰따옴표가 지나치게 남용되는 게 대표적 사례입니다. 기사나 산문의 경우 줄 바꿈은 문단별로 이뤄지기 때문에 AI가 문장별로 줄을 바꿨을 경우 이에 맞게 수정해줘야 합니다. 또한 강조하는 따옴표는 몇 군데를 제외하곤 최대한 덜어내주세요.
엠대시와 따옴표, 쉼표, 이모티콘이 너무 많은 글. 산문으론 적절치 않다. (출처 : ChatGPT)
무엇보다 '이 글 챗GPT 썼구나' 의심이 드는 버릇은 따로 있습니다. 바로 '엠대시(em dash)'라 불리는 긴 줄표(—) 입니다. 영어 글쓰기에서 추가 설명이나 부연을 넣을 때 주로 쓰이는 구두점인데요. 우리말 글쓰기에선 보기 힘들지만 챗GPT는 이 구두점을 참 좋아한다는 설이 있습니다.
지난 11월 13일 <워싱턴 포스트>는 챗봇이 영어로 공개 공유한 메시지 32만8744개를 분석한 결과를 보도했는데요, 지난 여름 기준으로 챗GPT 응답의 절반 이상에 엠대시가 포함돼 있었다고 합니다. 오죽하면 일각에선 엠대시를 '챗GPT 하이픈'이라고 놀린다네요.
어찌 됐든 한국어 글쓰기와는 안 어울리니 과하게 들어간 엠대시를 쉼표나 온점으로 바꿔주는 게 좋습니다. 간혹 이모티콘도 글에 들어가곤 하는데 산문이나 기사와는 안 어울리니 빼는 게 낫겠죠?
오후가 길어질수록 생각은 단순해진다—”오늘만 넘기자.” 이 문장은 너무 자주 쓰여서, 이제는 거의 "업무용 주문"처럼 굳어졌다.
- ➡️ 수정 : 오후가 길어질수록 생각은 단순해진다. "오늘만 넘기자." 이 문장은 너무 자주 쓰여서 이제는 거의 업무용 주문처럼 굳어졌다.
퇴근길, 이어폰을 꽂고 음악을 튼다🎧—멜로디가 흐르는 동안만큼은 잠시 "나의 시간"이 생긴다. 하지만 집 앞에 다다르면 다시 떠오른다—“내일은 더 잘할 수 있을까.”
- ➡️ 수정 : 퇴근길, 이어폰을 꽂고 음악을 튼다. 멜로디가 흐르는 동안만큼은 잠시 나의 시간이 생긴다. 하지만 집 앞에 다다르면 다시 '내일은 더 잘할 수 있을까' 하는 생각이 떠오른다.
그 질문은 답을 기대하지 않는다. 그저 오늘 하루를 정리하기 위한, 아주 조용한 문장일 뿐이다 🌙
이렇게 활용하자 : 나의 '공동 편집자'라고 생각하기
이선 몰릭 펜실베이니아대 와튼스쿨 부교수는 AI를 일과 삶에 적용하는 방법을 담은 서적 <듀얼 브레인>에서 "AI의 이질적인 관점이 우리에게 도움이 될 수 있다"며 "단순히 AI에 의존하는 것이 아니라, AI의 도움을 받아 자신의 선택을 돌아볼 수 있게 된다"고 조언합니다.
이 글을 쓰고 있는 저 역시 글 쓸 때 생성형 AI를 '또 하나의 편집자'로 활용합니다. 제 주장과 다른 쪽에서 어떻게 반박할 수 있는지 관점을 바꿔보거나, 초고에서 빈약한 논리나 근거는 없는지 찾을 때 질문을 던집니다. 모든 답이 맘에 들진 않지만 가끔 몰랐던 사례나 생각지 못한 발상을 얻곤 합니다.
하지만 문장을 한 줄 씩 써내려가는 일만큼은 절대 안 맡깁니다. 글은 개인이나 집단의 생각과 감정을 전하는 수단입니다. 스스로 경험하고 고민하는 과정이 생략된 문장은 넣고 싶지 않습니다. AI에 한 번, 두 번 부탁하다가 나중엔 영영 제 힘으로 한 줄도 못 쓰게 될까봐 두렵기도 합니다. 귀찮고 오래 걸려도 책상 앞에 앉아 단어를 고르고 문단을 지우고 쓰는 시간을 반복하는 이유입니다. 그렇게 끙끙 대며 쓴 글이 주는 희열은 결코 AI에게선 얻을 수 없을 겁니다.