1. 들어가며: AI 시대, 우리는 무엇을 믿을 것인가
어느 날, 한 편의 아름다운 글을 읽었다. 단정한 문장, 고요한 리듬, 사유의 결이 촘촘히 이어지는 문단들. 읽는 동안 마음이 평온해졌고, 마지막 문장에서는 묘하게 숨이 멎는 듯한 느낌까지 들었다. 그런데 감동이 채 가라앉기도 전에, 이런 물음이 떠올랐다.
“이 글, 혹시 AI가 쓴 건 아닐까?”
이제는 누구나 이런 질문을 품는다.
글이 생각보다 자연스럽고, 논리가 뚜렷하고, 표현이 안정적일수록, 어딘가 익숙한 언어로 엮여 있는듯한 그 문장은 어쩌면 인간이 아닌 기계가 학습한 수많은 말들의 조합일 수 있기 때문이다.
우리는 지금, 인간이 쓴 글과 인공지능이 쓴 글의 경계를 더 이상 쉽게 가늠할 수 없는 시대로 접어들고 있다.
AI가 글을 쓰는 시대는 이미 시작되었다
2022년 11월 30일, OpenAI가 ChatGPT를 공개한 이후, 세계는 뒤바뀌었다.
ChatGPT는 문장 생성 도구라고 하기에는 사용하는 범위가 넓었고, 에세이, 시, 보고서, 논문 초안, 심지어 소설까지 척척 써내는 인공지능의 등장은 사람들에게 충격과 전율을 동시에 안겨주었다.
그 후, Claude, Gemini, Copilot 등 다양한 생성형 AI들이 등장하면서, SNS으 짧은 문장부터 블로그 기사, 후기, 온라인 기사, 리포트 초안까지 우리가 마주치는 일상은 "AI가 쓴 글"로 점차 채워지기 시작했다.
이제 텍스트중 상당수는 '사람의 손'만으로 완성되었다고 확신하기 어려워 졌고, 이제 우리는 질문을 던지게 되었다.
누가 썻는가? 그리고 무엇을 믿어야 하는가?
그 어디에도 사람의 손길만이 묻어 있다고 단정할 수는 없는 시대. 우리는 지금, “의심”과 “신뢰” 사이에 선 독자들이 되어가고 있다.
우리는 왜 ‘이 글, AI가 쓴 걸까?’라고 묻는가?
이 질문은 이제 호기심의 산물로 치부하기에는 너무 많은 발전이 이루어졌다. GPT의 버전이 올라갈수록 생성형 AI 기술이 발전되어갈수록 세 가지 깊은 문제의식이 드러나기 시작한다.
우리가 읽는 글이 누군가의 생각과 감정, 삶의 경험에서 비롯된 것이 아니라면, 그 글은 과연 우리 마음을 움직일 수 있을까? 독자가 느낀 감동이 '가짜'가 되는 것은 아니지만, '내가 공감한 대상은 무엇이었나' 라는 감각은 무었이었을까?
둘째,창작의 본질에 대한 흔들림
오래전부터 "쓰는 자가 곧 생각하는 자"라는 말이 존재해왔던 것처럼 어찌보면 '쓰는 행위' 자체는 생각의 외화이며, 사유가 문장으로 가공되는 과정 자체가 창책의 핵심이었다.
그러나 AI가 인간처럼 글을 쓰기 시작하면서, 글은 '생성' 될 수 있고, 인간은 '선택'과 '편집'으로 개입하게 되면서, 이제 "쓰는 행위"가 곧 "창의성"의 증거가 될 수 없는 시대를 맞이했다.
신뢰의 기준이 모호해짐
정보는 출처와 책임, 검증 가능성으로 진실을 판단한다. 그러나 생성형 AI로 인한 콘텐츠가 다수를 이루게 되면, 정보의 출처가 모호해지게 되고, 생성된 콘텐츠가 사실과 허구를 넘나들게 되어버린다면 독자는 어떤 기준으로 진실을 구별해야 할까?
이 모든 물음은, 결국 한 가지로 수렴된다.
“우리는 AI가 쓴 글을 알아볼 수 있을까?”
그리고, “그것이 꼭 필요한 일일까?”
감별의 시대가 열렸다 그러나 '정확함'은 약속되지 않는다.
이 질문에 답하고자, 지금 수많은 기업과 연구기관들이 ‘AI 글 판별기’를 만들었고, 업데이트 하고 있다. 대표적으로 GPTZero 같은 도구는 ‘퍼플렉시티(perplexity)’와 ‘버스트니스(burstiness)’ 같은 통계적 특징을 활용해 문장을 평가한다. 교육 현장에서는 Turnitin의 AI 감지 기능이 널리 사용되기도하고, 오픈소스 진영에서는 Hugging Face에 공개된 감지 모델(예: GPT-2 출력 탐지기 계열)도 접근성이 높이고 있다.
그러나 여기에는 결정적인 문제가 있다. 바로, '정확하지 않다' 아니 '완벽하지 않다는 것'이다.
어떤 글은 인간이 썼지만 AI로 오인되고, 또 어떤 글은 AI가 썼지만 인간의 글처럼 보인다.
AI 판별 기술은 마치 안개 속에서 사람을 알아보려는 시도처럼 불완전한 도구로 불완전한 세계를 해석하려는 노력에 가깝다.
"진짜"는 어디에 있는가?
문학의 세계에서 ‘진짜’ 글은 겉모습이 아닌 그 안의 울림에서 나타나곤한다. 반면 정보의 세계에서의 '진짜'는 출처와 검증가능성, 창작자의 책임이 진실을 담보한다.
문제는 지금 우리가 이 두 세계의 경계에서 동시에 흔들린다는 점이다.
어떤 글은 너무 아름다워서 믿기 어렵고, 어떤 글은 너무 정확해서 오히려 기계의 작품 같고, 어떤 글은 어딘가 모르게 기계적인 감성이 묻어나 인간의 흔적이 느껴지지 않는다.
반대로 사람 글이어도 광고·선동·왜곡이 섞일 수 있다.
이제 질문은 이렇게 해야할지 모른다.
“AI가 만들었는가?”가 아닌 “어떤 목적과 책임 구조 아래에서 만들어졌는가?”로
그래서 ‘감별’이 아니라 ‘프로비넌스(provenance, 출처·이력)’가 대안으로 떠오른다.
C2PA는 디지털 콘텐츠의 출처와 편집 이력을 기술적으로 기록하는 표준을 추진하고 있고, 콘텐츠에 ‘영양성분표’처럼 이력을 붙이자는 발상을 보인다. 그 이유는 어떤 정보나 콘텐츠가 언제 어떤 도구로 수정되었는지, 어떤 정보가 첨부되었는지 등의 확인을 통해 신뢰라는 것을 담보하려는 시도이기 때문이다.
이것만으로 모든 문제를 해결할 수있다고는 생각할 수 없다. 표준은 도입이 필요하고, 플랫폼 간 호환이 필요하며, 악의적 우회도 등장할 수 있다.
하지만 방향성은 분명다. “문장 표면을 감별”하는 경쟁은 끝이 보이지 않지만, “작성·편집의 책임을 기록”하는 구조는 신뢰를 가져오는 인프라가 될 수도 있다.
이제 우리는 AI가 만든 ‘거짓된 진짜’와, 인간이 만든 ‘진실한 거짓’ 사이에서, 무엇을 믿고, 무엇을 의심해야 할까?
감별의 목적은 무엇이어야 하는가?
어떤 정보나 콘텐츠를 감별하는 것이 "이 글, AI가 쓴 거야!"라고 밝혀내는 것에서 그친다면, 우리는 기술에 사로잡힌 채 본질을 놓치게 될지도 모른다. 실제로 AI 감지 도구의 신뢰성과 운영 방식은 꾸준히 논쟁의 대상이 되고, “도구는 참고 신호일 뿐”이라는 경고가 반복다.
그래서 목적을 다시 재정렬해야 한다.
감별이 향해야 하는 곳은 ‘낙인’이 아니라 ‘정당한 평가’와 ‘투명한 책임’이다.
글이 평가를 받는 자리(교육, 채용, 연구, 공공)에서 감별이 필요한 이유는 AI를 혐오해서가 아니라, 평가의 규칙을 지키기 위해서다. 반대로 감상과 사유의 자리(에세이, 문학, 철학)에서는 “무엇이 나를 움직였는가”라는 해석이 이제 더 중요해질 수 있다.
중요한 것은 감별이 아니라, AI가 쓴 글을 어떻게 읽을 것인가 그리고 그 글이 어떤 영향을 주고 있는가이다.
이제 우리에게 필요한 능력은 ‘AI 감별 능력’만이 아니다.
지금 필요한 것은 ‘의미를 판별하는 능력’이다.
정보의 시대를 살아가는 우리는, 진실과 거짓을 판별하는 것보다 의미와 가치를 구별하는 눈이 더 필요하다. 그 눈은 기술이 아닌, 결국 인간의 사유에서 비롯된다.
글을 쓰는 자, 읽는 자
AI는 더 이상 단순한 도구가 아니다. ‘AI를 쓰느냐, 안 쓰느냐’의 이분법으로 정리되지 않다 AI가 개요를 잡고 사람이 증거를 채우기도 하고, 사람이 초안을 쓰고 AI가 문장을 다듬기도 한다. 그래서 앞으로 중요한 기준은 “무사용”이 아니라 “투명한 사용”이 될 가능성이 크다.
글을 만들고나면, 그 글은 누군가에게 위로가 되기도 하고, 누군가를 오도하기도 한다. 이제 그 글을 어떻게 읽을지, 무엇을 받아들일지는 여전히 인간의 몫이다.
우리는 이제 기술을 감별하는 시대를 지나, 의미를 감별하는 시대로 나아가야 한다. 힘은 도구에서 나오기보다, 사람이 길러 온 사유의 능력에서 나온다.






댓글 쓰기