테마 이미지 제공: Igniel
미소의 그림같은 삶
미소의 그림같은 삶

AI 감별 기술은 어떻게 작동하나? 기계의 문장을 알아보는 기술의 원리와 한계

AI 감별 기술의 작동 원리를 퍼플렉서티, 버스트니스, 분류 모델, 워터마크, 출처 추적 관점에서 풀어 설명하고, 한계와 오탐 위험, 교육과 미디어 현장의 대응 방향까지 깊이 있게 정리한 글입니다.
기계의 문장을 가려내려는 시도

핵심 요약 박스

앞선 글에서 우리는 AI가 쓴 글이 남기는 흔적을 살펴보았습니다. 이번 글에서는 한 걸음 더 들어가, 감별기가 어떤 원리로 문장을 분석하고 어떤 지점에서 오판하는지 차분하게 풀어보겠습니다. 오늘의 AI 감별 기술은 퍼플렉서티, 버스트니스, 문체 분류, 워터마크 탐지, 출처 추적, 작성 이력 확인 같은 여러 층위를 함께 사용합니다. 다만 현재 기술 수준에서도 완벽한 판정은 어렵고, 짧은 글이나 사람이 고친 글, 번역문, 비원어민 글에서는 오류 가능성이 남아 있습니다.

OpenAI는 자사의 AI Text Classifier를 2023년 7월 낮은 정확도 때문에 중단했고, 당시 공개한 설명에서 해당 분류기는 영어 챌린지 세트 기준 AI 작성 텍스트를 “likely AI-written”으로 맞힌 비율이 26%였으며, 사람 글을 AI 글로 잘못 표시한 비율도 9%라고 밝혔습니다. Turnitin 역시 2026년 가이드에서 자사 AI 감지 모델이 사람 글, AI 글, AI가 재서술한 글을 모두 잘못 식별할 수 있으므로 불이익 조치의 유일한 근거로 써서는 안 된다고 안내합니다. NIST는 합성 콘텐츠 위험 대응 보고서에서 탐지, 워터마크, 프로비넌스, 인증, 라벨링을 함께 묶어야 한다고 정리했습니다. 

왜 지금 AI 감별 기술을 다시 들여다봐야 하는가

우리는 이미 사람과 기계가 함께 쓰는 시대를 살고 있습니다. 블로그 글, 자기소개서, 학교 과제, 보도자료, 제품 설명, 고객 응답, 회의 요약, 검색 결과 요약문까지, 텍스트가 생산되는 거의 모든 영역에서 생성형 AI가 관여하고 있습니다. 눈에 띄는 변화는 양입니다. 글이 쏟아지는 속도가 과거와 비교하기 어려울 정도로 빨라졌고, 그 가운데 무엇이 사람의 생각을 거쳐 나온 문장인지, 무엇이 모델의 확률 계산에서 태어난 문장인지 묻는 일이 점점 중요해졌습니다.

이 질문은 호기심 차원에서 머물지 않습니다. 교육 현장에서는 과제의 진정성과 평가의 공정성이 걸려 있고, 언론과 출판 현장에서는 신뢰와 책임이 걸려 있으며, 행정과 법률 영역에서는 설명 책임과 기록의 무게가 얹혀 있습니다. 누가 썼는가를 알아야 저작권을 이야기할 수 있고, 허위정보의 책임을 가를 수 있으며, 표절과 부정행위 판단도 더 정밀해질 수 있습니다. 그래서 AI 감별 기술은 기술 흥미의 대상이기보다, 신뢰 인프라를 지키려는 사회적 장치로 읽는 편이 더 정확합니다.

흥미로운 점은 감별 기술이 AI의 성장 속도를 따라가며 계속 변하고 있다는 사실입니다. 처음에는 “문장이 너무 매끈하면 AI 같다”는 수준의 감각적 판단이 많았습니다. 그러나 생성 모델이 빠르게 정교해지면서 표면적 인상만으로는 판단이 어려워졌습니다. 이제 감별기는 단어가 이어지는 확률, 문장 길이의 흔들림, 접속 구조, 어휘 분포, 편집 이력, 메타데이터, 워터마크 신호, 암호학적 출처 정보까지 넓게 읽습니다. 감별의 무게중심이 스타일 추정에서 생성 이력 추적으로 조금씩 옮겨가고 있다는 말도 가능하겠습니다. 

그 과정에서 현실도 분명하게 드러났습니다. 완벽한 텍스트 감별기는 아직 없습니다. OpenAI는 자사 AI Text Classifier를 낮은 정확도 때문에 내렸고, 자사 설명에서 분류기가 짧은 글에는 매우 불안정하며, 영어 외 언어와 코드에는 더 약하고, 예측 가능한 텍스트는 제대로 식별하기 어렵다고 공개했습니다. AI가 쓴 글을 사람이 조금 다듬으면 회피가 가능하다는 설명도 함께 붙었습니다. 감별 도구가 강력해졌다는 인상과 별개로, 공식 문서가 스스로 밝힌 한계는 꽤 선명합니다. 

교육 서비스 영역도 비슷합니다. Turnitin은 2026년 가이드에서 자사 AI Writing Report가 사람이 쓴 글, AI가 쓴 글, AI가 다시 손본 글을 모두 잘못 판별할 수 있다고 적시합니다. 그래서 AI 감지 결과만으로 학생에게 불이익을 주어서는 안 되며, 사람의 검토와 기관 정책, 맥락 판단이 함께 가야 한다고 설명합니다. 이 대목은 매우 중요합니다. 감별 기술이 강력한 보조도구는 될 수 있어도, 최종 심판이 되기에는 아직 이른 단계라는 뜻이기 때문입니다. 

이쯤에서 질문이 다시 생깁니다. 그렇다면 감별기는 도대체 무엇을 보고 판단할까요. 사람의 직감이 아니라면, 기계는 어느 지점에서 “AI 냄새”를 읽어낼까요. 답은 한 가지가 아닙니다. 오늘의 감별 기술은 대체로 다섯 갈래를 섞어 씁니다. 첫째, 다음 단어가 얼마나 쉽게 예상되는지 보는 퍼플렉서티 계열 분석입니다. 둘째, 문장 길이와 구조가 얼마나 들쭉날쭉한지 보는 버스트니스 계열 분석입니다. 셋째, 사람 글과 AI 글을 대량 학습한 분류 모델이 문체 벡터를 비교하는 방식입니다. 넷째, 생성 순간에 숨겨 둔 워터마크를 탐지하는 방식입니다. 다섯째, 작성과 편집 이력을 기록해 출처를 검증하는 프로비넌스 방식입니다. NIST는 합성 콘텐츠 대응 기술을 크게 프로비넌스 데이터 추적과 합성 콘텐츠 탐지로 나누어 설명하며, 두 축을 함께 쓰는 접근이 상호보완적이라고 정리합니다.

앞으로의 논의는 더 섬세해질 필요가 있습니다. 누가 썼는지 맞히는 게임처럼 접근하면 감별 기술은 오히려 사람을 해칠 수 있습니다. 반대로 “어떤 조건에서 신뢰할 수 있고, 어떤 조건에서는 경계해야 하는가”를 따지는 도구로 쓰면 훨씬 생산적인 길이 열립니다. 저는 이 글이 그 판단의 기준을 세우는 데 도움이 되길 바랍니다. 감별은 의심을 키우기 위한 기술이 아니라, 책임 있는 판정을 돕기 위한 기술이어야 하기 때문입니다.

퍼플렉서티, 버스트니스, 문체 분류는 무엇을 읽는가

가장 널리 알려진 감별 원리는 퍼플렉서티입니다. 이름은 다소 낯설지만 뜻은 생각보다 분명합니다. 한 문장이 다음 단어를 얼마나 쉽게 예측하게 만드는지를 수치로 보는 개념입니다. 말하자면 “놀라움의 정도”를 재는 셈입니다. 상투적인 표현과 익숙한 연결이 이어지는 문장은 예측이 쉬워 점수가 내려가고, 도약이 크고 표현의 변주가 많은 문장은 예측이 어려워 점수가 올라갑니다. 많은 생성형 AI는 확률이 높은 다음 단어를 고르는 구조로 문장을 이어가기 때문에, 전체적으로 너무 매끈하고 너무 무난하며 너무 예측 가능한 문장을 자주 만듭니다. GPTZero도 자사 설명에서 퍼플렉서티를 문장별로 계산해 주어진 표현이 언어모델에게 얼마나 “예상 가능한가”를 본다고 소개합니다.

가령 사용설명서 같은 문장은 사람이 써도 예측 가능성이 높습니다. 반대로 감정이 실린 산문이나 순간의 기억을 붙잡는 에세이는 단어 선택이 예상 밖으로 튀기도 합니다. 이런 차이 덕분에 감별기는 “너무 예측 가능한 문장”을 하나의 신호로 받아들입니다. 다만 바로 여기서 중요한 경계가 필요합니다. 퍼플렉서티가 낮다고 해서 AI 글이라고 곧장 결론 내리면 오판이 생깁니다. 교재, 법률 문서, 행정문, 안내문, 학술 요약문처럼 원래부터 규범성이 강한 글은 사람 손에서 나와도 매우 안정적일 수 있기 때문입니다. OpenAI도 자사 문서에서 “아주 예측 가능한 텍스트는 신뢰성 있게 식별하기 어렵다”고 명시했습니다. 

버스트니스는 또 다른 핵심입니다. 버스트니스는 문장 길이, 구조, 호흡의 변화 폭을 봅니다. 사람은 글을 쓸 때 같은 길이의 문장을 줄줄이 늘어놓지 않습니다. 짧게 끊었다가 길게 설명하고, 논리 전개 중간에 감정을 삽입하고, 질문형 문장을 던졌다가 다시 설명형으로 돌아갑니다. 같은 개념을 설명하면서도 어느 문장은 단정하고, 어느 문장은 망설이며, 어느 문장은 다소 느슨하게 흘러갑니다. 글의 리듬이 살아 있다는 말은 이런 변화가 자연스럽게 나타난다는 뜻입니다.

반면 많은 AI 글은 전체 문장 길이가 지나치게 고르고, 접속 구조가 일정하며, 단락마다 비슷한 톤과 무게를 유지하는 경우가 많습니다. “첫째, 둘째, 셋째” 식으로 과도하게 정돈되거나, 문장마다 같은 간격으로 요약과 결론을 붙이는 패턴이 보이기도 합니다. GPTZero는 자사 설명에서 감별기가 인간 글이 보이는 자연스러운 퍼플렉서티와 버스트니스의 균형을 찾는다고 말합니다. 리듬의 흔들림이 너무 없거나, 반대로 과도하게 조작된 경우 모두 경고 신호가 될 수 있다는 이야기입니다. 

그렇다고 버스트니스도 절대 기준이 될 수는 없습니다. 보고서나 논문 초록, 정책 브리프 같은 문서는 사람이 써도 리듬이 정리되어 있습니다. 또 요즘의 생성 모델은 프롬프트에 따라 문장 길이를 더 들쭉날쭉하게 흉내 낼 수 있습니다. 버스트니스는 퍼플렉서티처럼 하나의 신호일 뿐, 유죄 판결문이 아닙니다. 좋은 감별기는 늘 여러 단서를 겹쳐 읽습니다. 이 점을 빼놓으면 감별 기술은 곧바로 억지 확신으로 흐르기 쉽습니다.

여기서 한 단계 더 들어가면 스타일로메트리와 딥러닝 기반 분류기가 등장합니다. 스타일로메트리는 말 그대로 문체를 계량적으로 읽는 작업입니다. 자주 쓰는 접속사, 대명사 배치, 문장 길이 분산, 어휘 난도, 반복되는 구문, 단락 배열 방식, 논증 순서 같은 특징을 숫자로 바꾸어 문체의 지문처럼 분석합니다. 사람도 자신만의 습관이 있고, AI 역시 학습 데이터와 디코딩 전략 때문에 특정한 경향을 드러냅니다. 감별기는 바로 그 습관의 분포를 읽습니다.

딥러닝 분류기는 여기에 더 많은 층위를 얹습니다. 인간 글과 AI 글을 대량으로 학습한 분류 모델이 새 텍스트를 보고 어느 분포에 더 가까운지 확률로 반환하는 구조입니다. 말하자면 문장 속 특징량을 벡터화해, “이 글은 사람 글에 더 가까운가, 기계 글에 더 가까운가”를 다차원 공간에서 판정하는 셈입니다. OpenAI의 과거 분류기도 쌍으로 준비한 사람 글과 AI 글 데이터를 바탕으로 미세조정한 언어모델이었고, Turnitin 역시 전체 퍼센티지를 제시할 때 긴 산문 문장에서 AI로 생성되었을 수 있는 비율을 추정한다고 설명합니다. 

여기서 감별 점수를 개념적으로 적어 보면 다음과 같은 형태를 떠올릴 수 있습니다.

\( D = \alpha P + \beta B + \gamma S + \delta L \)

여기서 \(P\)는 퍼플렉서티, \(B\)는 버스트니스, \(S\)는 문체적 특징 집합, \(L\)은 문장 길이와 구조 관련 신호라고 볼 수 있습니다. 실제 상용 감별기는 훨씬 복잡한 비선형 구조를 쓰지만, 이해를 돕기 위해 적으면 “여러 특징을 가중합하거나 비선형 결합해 AI 가능성 점수를 만든다”는 그림으로 생각하시면 됩니다. 중요한 점은 감별 결과가 본질적으로 확률값이라는 사실입니다. 확률값을 사실 판정으로 오해하는 순간, 기술은 정보가 아니라 낙인이 됩니다.

사람의 글과 AI의 글이 늘 확연히 다르다면 감별은 쉬웠을 것입니다. 그러나 현실은 그렇게 흘러가지 않습니다. 연구자들은 이미 감별기 회피가 가능한 공격 시나리오를 보여 주었습니다. 2023년 발표된 연구에서는 재귀적 패러프레이징을 거치면 여러 감별기의 탐지율이 크게 떨어지며, 텍스트 품질 저하는 비교적 작게 남는다고 보고했습니다. 같은 논문은 인간이 쓴 글을 AI가 쓴 것처럼 오인하게 만드는 스푸핑 공격 가능성도 함께 다룹니다. 이런 결과는 감별 기술이 통계적 패턴에 많이 기대고 있다는 사실, 그리고 그 패턴이 교란될 때 성능이 흔들릴 수 있다는 사실을 동시에 드러냅니다. 

이 지점에서 글쓰기 현실을 떠올려 보면 더 분명해집니다. AI 초안을 사람이 다듬고, 번역기를 거치고, 다시 사람이 어휘를 고치고, 문장 순서를 바꾸고, 예시를 붙이는 순간 텍스트는 혼합형이 됩니다. 감별기 입장에서 혼합형 글은 가장 까다로운 대상입니다. 사람의 결이 충분히 섞이면 스타일 신호가 분산되고, AI 특유의 매끈함이 희석되며, 반대로 지나치게 교정된 사람 글은 AI처럼 읽힐 수도 있습니다. 교육 현장에서 비원어민 학생의 글이 억울하게 의심받는 문제, 형식적 문체를 쓰는 실무 문서가 오탐되는 문제도 같은 뿌리에서 나옵니다. Turnitin이 사람 판단과 기관 정책을 반드시 병행하라고 안내한 이유가 바로 여기에 있습니다.

저는 이 대목에서 감별 기술을 “문체 분석기”와 “책임 판정기”로 분리해 생각할 필요가 있다고 봅니다. 지금의 감별기는 문체 분석기 역할은 어느 정도 수행합니다. 사람 글과 기계 글의 패턴 차이를 확률로 읽는 작업 말입니다. 그러나 책임 판정기 역할까지 맡기면 무리가 생깁니다. 감별 점수가 높다고 해서 곧바로 부정행위가 되는 것도 아니고, 감별 점수가 낮다고 해서 완전히 사람 손으로만 작성되었다는 보장도 없습니다. 그래서 감별기를 잘 쓰려면, 기술의 권한을 어디까지 둘 것인가를 먼저 정해야 합니다. 그렇지 않으면 도구가 기준을 대신해 버립니다.

문장 감별의 첫 단계는 표면적 인상보다 확률과 리듬을 읽는 일

감별 신호 무엇을 보는가 AI 글에서 자주 보이는 경향 주의할 점
퍼플렉서티 다음 단어의 예측 가능성 낮은 값이 자주 나타남 규범적 인간 글도 낮게 나올 수 있음
버스트니스 문장 길이와 구조의 흔들림 리듬이 비교적 고름 프롬프트에 따라 AI도 변화를 흉내 낼 수 있음
문체 특징 접속사, 대명사, 반복 구문, 어휘 분포 평균적 표현과 정리된 구조가 많음 사람이 다듬은 혼합형 글에서는 흐려질 수 있음
분류 모델 인간/AI 데이터와의 유사도 훈련 분포 안에서는 강점이 있음 새 모델, 새 문체, 새 언어에 약해질 수 있음

표를 보면 감별기가 무엇을 보는지 윤곽이 또렷해집니다. 다만 모든 칸 끝에는 예외가 붙습니다. 그 예외를 감안하지 않은 판정은 기술적 엄밀함을 잃기 쉽습니다.

한편 감별 기술의 발전은 역설도 낳았습니다. 감별기가 강해질수록, 글을 “사람처럼 보이게” 다듬는 우회 도구도 늘어납니다. AI humanizer나 패러프레이저가 바로 그 사례입니다. 최근 연구는 이런 도구들이 기존 감별기를 흔드는 방식을 분석하며, 데이터 중심 보강이나 적대적 훈련으로 대응하려는 흐름도 보여 줍니다. 그러나 여기서도 결론은 간단하지 않습니다. 방어가 강해지면 회피도 정교해지고, 회피가 정교해지면 더 많은 문맥 정보와 출처 정보가 필요해집니다. 그래서 감별 전쟁은 문장 한 줄을 두고 벌어지는 싸움이 아니라, 생성 생태계 전체를 둘러싼 긴 경쟁이 되고 있습니다. 

워터마크, 출처 추적, 프로비넌스는 왜 더 중요해지는가

문체 분석만으로는 한계가 분명해지자, 감별 기술은 생성 순간의 흔적을 남기는 방향으로 옮겨가기 시작했습니다. 여기서 가장 주목받는 방식이 워터마크입니다. 텍스트 워터마크는 이미 생성된 글을 나중에 추정하는 접근과 다릅니다. 처음부터 모델이 문장을 만들 때 보이지 않는 신호를 함께 심고, 사후에 그 신호를 읽어 “이 텍스트는 특정 생성 체계를 거쳤다”는 정황을 확인하는 방식입니다. 추정이 아니라 표식을 남기는 셈이어서 개념적으로는 훨씬 매력적입니다.

Google DeepMind의 SynthID는 그 흐름을 대표하는 사례입니다. DeepMind는 SynthID를 AI로 생성된 콘텐츠에 워터마크를 넣고 식별을 돕는 도구라고 설명하며, 이미지, 오디오, 텍스트, 비디오에 모두 적용 가능한 구조를 소개합니다. 공식 페이지는 워터마크가 인간 눈과 귀에는 거의 드러나지 않지만 탐지 기술로 확인할 수 있다고 설명합니다. 텍스트 쪽으로 시야를 좁히면 Nature에 실린 SynthID-Text 논문이 중요한 기준이 됩니다. 해당 연구는 텍스트 품질 저하를 거의 늘리지 않으면서 높은 탐지력을 확보하고, 대규모 운영 환경에서도 적용 가능하다고 보고합니다. Nearly 2천만 건에 가까운 Gemini 응답을 활용한 실험 결과도 함께 제시됩니다.

이 대목은 매우 매력적으로 들립니다. 사람이 쓴 듯 자연스러운 문장을 유지하면서도 생성 흔적을 남길 수 있다면 감별 문제의 상당 부분이 풀리는 것처럼 느껴지기 때문입니다. 그러나 현실은 조금 더 까다롭습니다. 워터마크가 강하면 문장 품질에 영향을 줄 수 있고, 문장 품질을 보존하려 하면 신호가 약해질 수 있습니다. 무엇보다 텍스트는 이미지보다 훨씬 쉽게 고쳐 쓸 수 있습니다. 문장을 몇 줄 바꾸고 순서를 섞고 일부를 번역한 뒤 다시 손보면 워터마크 신호가 약해질 가능성이 있습니다. 관련 연구도 워터마크의 유효성을 높게 평가하면서 동시에 강인성 문제를 계속 검증해야 한다고 말합니다. Nature의 해설 기사도 텍스트 워터마킹이 유망하지만 견고성 확보가 핵심 과제라고 짚었습니다. 

그래서 요즘 더 크게 주목받는 축이 프로비넌스, 곧 출처 이력입니다. 프로비넌스는 “AI처럼 보이는가”보다 “이 콘텐츠는 어디서 왔고 어떻게 편집되었는가”를 기록으로 남기려는 접근입니다. 문체 추정은 확률 문제이지만, 출처 기록은 기술적으로 잘 설계되면 훨씬 명시적입니다. 누가 만들었고, 어떤 도구를 거쳤고, 어떤 편집이 있었는지, 어떤 시점에 공개되었는지를 확인할 수 있다면 감별의 신뢰도는 크게 달라집니다.

C2PA가 제시하는 Content Credentials는 바로 그런 방향의 대표 표준입니다. C2PA는 자신들을 디지털 콘텐츠의 기원과 편집 이력을 설정할 수 있게 하는 개방형 기술 표준이라고 설명하며, Content Credentials를 “디지털 콘텐츠를 위한 영양성분표”처럼 볼 수 있다고 표현합니다. Content Credentials 공식 사이트도 핀 아이콘을 통해 생성 방식과 편집 기록을 미리 보여 줄 수 있다고 안내합니다. 문체를 보고 의심하는 단계에서, 출처 기록을 직접 확인하는 단계로 이동하는 셈입니다. 

이 흐름이 중요한 까닭은 감별의 기준을 ‘느낌’에서 ‘이력’으로 옮겨 놓기 때문입니다. 사람과 AI의 문체 차이는 앞으로 더 흐려질 수 있습니다. 좋은 프롬프트와 세심한 후편집을 거치면 AI 글은 사람 글처럼 읽힐 수 있고, 형식적 목적을 가진 사람 글은 AI처럼 읽힐 수 있습니다. 반면 생성 이력과 서명 정보는 문체보다 더 단단한 근거가 될 수 있습니다. 물론 여기에도 전제는 있습니다. 작성 도구, 플랫폼, 편집기, 배포 채널이 넓게 도입해야 하고, 중간 과정에서 메타데이터가 지워지지 않아야 하며, 이용자도 그런 정보를 읽을 줄 알아야 합니다. 기술 표준 하나로 세상이 갑자기 바뀌지는 않습니다. 그럼에도 방향성은 분명합니다. 앞으로의 감별은 문체 분석과 출처 증명을 함께 묶는 쪽으로 갈 가능성이 높습니다.

NIST의 합성 콘텐츠 위험 대응 보고서도 같은 관점을 취합니다. 보고서는 합성 콘텐츠 대응 기술을 프로비넌스 데이터 추적과 합성 콘텐츠 탐지로 나누고, 워터마크와 서명 메타데이터, 탐지 기술이 서로 겹치면서도 상호보완적이라고 설명합니다. 강인한 은닉 워터마크를 심고, 별도로 서명된 메타데이터를 붙이고, 필요할 때 탐지기를 돌리는 복합 구조가 더 유용할 수 있다는 취지입니다. 저는 이 지점이 매우 설득력 있다고 봅니다. 현실의 정보 생태계가 너무 복잡하기 때문에, 하나의 완벽한 감별기가 모든 문제를 풀어 주리라 기대하기 어렵기 때문입니다. 

이제 감별 기술을 수식처럼 개념화해 보면 조금 더 선명해집니다.

\( G = \alpha T + \beta W + \gamma C + \delta H \)

여기서 \(T\)는 텍스트 패턴 분석, \(W\)는 워터마크 신호, \(C\)는 출처 이력과 서명 정보, \(H\)는 인간 검토라고 볼 수 있습니다. 실제 현장은 물론 더 복잡하지만, 이런 그림으로 이해하면 왜 단일 지표만으로 판정하면 안 되는지 쉽게 보입니다. 워터마크가 없어도 사람 글일 수 있고, 출처 정보가 비어 있어도 플랫폼 전송 과정에서 지워졌을 수 있으며, 문체 점수가 높아도 사람이 형식적으로 작성한 글일 수 있습니다. 그래서 복합 구조가 필요합니다.

그렇다면 메타-AI, 곧 AI가 AI를 판별하는 구조는 어디쯤 서 있을까요. 원리 자체는 낯설지 않습니다. 감별 전용 모델이 수많은 사람 글과 AI 글 사례를 보고, 스스로 분류 기준을 익히는 방식입니다. 이때 AI는 인간의 “느낌”을 대신하지 않습니다. 더 많은 차원에서 패턴을 읽고 확률을 내놓을 뿐입니다. 그래서 메타-AI의 본질도 결국 분류기입니다. 훌륭한 보조자가 될 수는 있어도, 혼자서 윤리와 책임을 확정할 수는 없습니다. 감별 도구가 인간 판단을 보조하는 지점과, 인간 판단을 대체해 버리는 지점은 엄연히 다릅니다.

저는 앞으로 텍스트 감별 기술의 중심축이 세 방향으로 수렴할 가능성이 높다고 봅니다. 첫째, 문체와 확률을 읽는 통계 감별이 더 정교해질 것입니다. 둘째, 워터마크가 더 널리 실험되고 일부 상용 체계에 더 깊게 스며들 것입니다. 셋째, 프로비넌스와 Content Credentials 같은 출처 인증 체계가 미디어 영역을 넘어 텍스트 유통 환경까지 확장될 것입니다. 이 셋이 함께 움직일 때, 감별은 “맞히는 기술”에서 “설명 가능한 신뢰 체계”로 바뀔 수 있습니다.

기술 축 핵심 질문 강점 취약 지점
통계 기반 감별 문체와 확률 분포가 사람 글과 얼마나 다른가 빠르고 대량 처리에 유리함 오탐과 회피 가능성이 남음
워터마크 생성 순간 심은 신호가 남아 있는가 사전 표식이라는 장점이 큼 편집과 재서술에 약해질 수 있음
프로비넌스 누가 만들었고 어떻게 수정했는가 문체 추정보다 근거가 더 선명함 생태계 전반의 도입이 필요함
인간 검토 문맥과 의도를 고려한 판정이 가능한가 맥락 판단과 책임 판단이 가능함 시간과 전문성이 많이 필요함

표를 통해 보면 오늘의 감별 기술이 한 줄로 정리되지 않는 까닭이 분명해집니다. 모든 기술은 강점과 취약 지점을 동시에 품고 있습니다. 그래서 실무에서는 “무엇이 최고인가”보다 “어떤 상황에서 무엇을 조합할 것인가”가 더 중요한 질문이 됩니다.

여기서 한 가지 더 짚고 싶습니다. AI 감별 기술이 발전할수록, 글쓰기 윤리와 정보 윤리의 기준도 함께 성숙해야 합니다. 감별이 강해지면 더 교묘한 회피 도구가 나오고, 회피가 늘어나면 더 많은 출처 인증과 작성 이력 확인이 필요해집니다. 이 반복을 기술만으로 끝낼 수는 없습니다. 플랫폼 정책, 교육 규범, 언론 윤리, 조직 내 문서 규정, 저작권 인식이 같이 움직여야 감별은 비로소 사회적 의미를 얻습니다. 기술을 둘러싼 제도와 문화가 따라오지 못하면, 아무리 정교한 감별기도 결국 분쟁의 불씨가 되기 쉽습니다.

생성 순간의 흔적과 편집 이력을 남기는 방식

정책 시사점 – 교육, 미디어, 플랫폼, 조직은 무엇을 준비해야 하는가

AI 감별 기술을 둘러싼 논의는 기술 소개에서 끝나지 않습니다. 감별기가 실제로 쓰이는 장소를 보면 교육기관, 언론사, 기업, 공공기관, 플랫폼 사업자, 연구윤리 체계 같은 곳이 중심에 있습니다. 그러므로 지금 필요한 것은 “감별 기술이 있느냐 없느냐”가 아니라, “그 기술을 어떤 절차와 원칙 아래에서 쓰느냐”입니다.

교육 현장부터 보겠습니다. 과제를 제출한 학생에게 감별 결과만 보여 주고 해명을 요구하는 방식은 매우 위험합니다. Turnitin이 스스로 안내하듯, AI 감지 결과는 사람 글과 AI 글, AI가 재서술한 글을 모두 잘못 식별할 수 있습니다. 그러므로 교육기관은 감별 점수를 징계의 직접 근거로 삼기보다, 초안 제출 이력, 구두 설명, 참고문헌 검토, 수업 내 작성 기록, 개별 면담을 함께 보는 다층 평가 체계를 갖추는 편이 바람직합니다. 감별기는 출발점일 수 있어도 결론이어서는 안 됩니다. 

언론과 출판 영역에서는 출처 투명성이 더 중요합니다. 기사, 칼럼, 보도자료, 리뷰, 서평, 광고 문안에 생성형 AI가 어느 정도 개입했는지 독자가 알 수 있어야 신뢰가 무너지지 않습니다. 이때 문체 감별기로 사후 판정을 시도하는 길도 있겠지만, 더 건강한 방향은 작성 정책 자체를 투명하게 만드는 일입니다. 어느 부분을 AI로 보조받았는지, 사람 편집이 어디까지 들어갔는지, 팩트 검증을 어떤 방식으로 마쳤는지 밝히는 문화가 자리 잡을수록 감별 기술도 덜 공격적으로 쓰일 수 있습니다. 신뢰는 추궁만으로 쌓이지 않고 공개와 설명을 통해 자랍니다.

플랫폼 사업자에게는 두 가지 과제가 있습니다. 하나는 대량 확산되는 합성 콘텐츠에 대한 라벨링과 프로비넌스 지원입니다. 다른 하나는 오탐이 만들어 낼 피해를 줄이는 절차 설계입니다. NIST가 탐지, 라벨링, 인증, 워터마크, 프로비넌스를 함께 살펴봐야 한다고 정리한 이유도 이 맥락에서 이해할 수 있습니다. 플랫폼은 감별 결과를 화면에 띄우는 순간, 그 자체로 사회적 신호를 만들어 냅니다. 잘못된 신호는 사람의 평판을 해칠 수 있으므로, 플랫폼은 탐지보다 설명과 이의제기 절차를 더 촘촘하게 설계해야 합니다. 

기업과 공공기관의 문서 환경도 바뀌어야 합니다. 업무 효율을 위해 생성형 AI를 쓰는 조직이 많아질수록, 문서 작성 과정의 이력 관리와 책임 표시가 중요해집니다. 누가 초안을 만들었는지, AI 보조가 어느 단계에 개입했는지, 최종 검토 책임자는 누구인지 남기는 체계가 있어야 분쟁을 줄일 수 있습니다. 사람이 검토했다고 적는 것만으로는 부족합니다. 검토 범위와 승인 책임이 문서 시스템 안에 남아야 합니다. C2PA와 Content Credentials가 미디어에서 보여 준 방향은 앞으로 조직 문서 관리에도 충분히 확장될 수 있습니다.

정책 설계 차원에서는 “AI 감별 결과의 법적 지위”를 조심스럽게 다룰 필요가 있습니다. 현재 단계의 감별 점수는 기술적 정황증거에 더 가깝습니다. 그러므로 행정 처분, 징계, 채용 탈락, 계약 해지처럼 중대한 불이익으로 바로 연결하는 방식은 신중해야 합니다. OpenAI가 과거 분류기를 설명하면서 분류기를 주된 결정 도구가 아니라 다른 방법을 보완하는 수단으로만 써야 한다고 적은 점, Turnitin이 감지 결과를 불이익 조치의 유일한 근거로 쓰지 말라고 밝힌 점은 같은 방향을 가리킵니다. 기술 공급자 스스로가 그 정도의 신중함을 요구한다면, 사용자와 제도는 더 엄격한 기준을 가져야 마땅합니다. 

아울러 AI 리터러시 교육도 꼭 필요합니다. 사람들은 감별기 화면에 뜬 숫자를 보면 쉽게 확신합니다. 80%가 뜨면 거의 확정처럼 느끼고, 10%가 뜨면 완전히 안전하다고 오해하기도 합니다. 그러나 감별 점수는 맥락과 모델 조건에 따라 달라지는 확률값입니다. 교육기관과 조직은 구성원에게 감별 점수의 의미, 오탐과 미탐의 개념, 글 길이와 언어 조건에 따른 편차, 사람 검토의 필요성을 함께 가르쳐야 합니다. 기술 이해가 얕을수록, 숫자는 설명보다 권위로 소비됩니다.

결국 앞으로의 정책 방향은 세 문장으로 요약할 수 있습니다. 첫째, 감별기는 보조도구여야 합니다. 둘째, 출처 인증과 작성 이력 관리가 강화되어야 합니다. 셋째, 불이익 판단에는 사람의 검토와 절차적 보호가 반드시 동반되어야 합니다. 이 세 원칙이 자리 잡으면 AI 감별 기술은 감시의 기계가 아니라 신뢰의 인프라로 기능할 수 있습니다.

누가, 어떤 절차로, 어떤 책임 아래 사용하는지

한계와 주의점 – AI 감별 기술이 자주 부딪히는 현실의 벽

AI 감별 기술을 둘러싼 가장 큰 한계는 완전한 확정판정이 어렵다는 데 있습니다. OpenAI의 과거 분류기는 영어 챌린지 세트 기준 26%의 true positive와 9%의 false positive를 보였고, 결국 서비스에서 내려갔습니다. 이 수치는 감별 기술이 얼마나 힘든 과제를 다루고 있는지 아주 선명하게 보여 줍니다. 수치가 낮아서 문제라는 수준을 넘어, 사람과 기계의 문장이 본질적으로 겹치는 공간이 꽤 넓다는 점을 드러낸 사례였기 때문입니다. 

둘째 한계는 회피 가능성입니다. AI가 만든 초안을 사람이 조금만 손보거나, 패러프레이저를 한두 번 거치거나, 문장 순서를 바꾸고 예시를 붙이면 통계적 흔적이 약해질 수 있습니다. 관련 연구는 재귀적 패러프레이징이 탐지율을 크게 떨어뜨릴 수 있다고 보여 주었습니다. 워터마크도 더 강한 대안이 될 수 있지만, 텍스트는 편집과 재작성에 매우 취약한 매체이기 때문에 장기적으로 얼마나 견고하게 유지될지는 계속 검증이 필요합니다. 

셋째 한계는 언어와 문체의 다양성입니다. 많은 감별기는 영어 중심 데이터로 강점을 보여 왔고, 다른 언어에서는 성능이 흔들릴 가능성이 더 큽니다. OpenAI도 자사 설명에서 영어 외 언어에서 성능이 더 낮다고 적었습니다. 한국어 환경에서는 조사 사용, 어순 유연성, 높임말, 문장 종결 방식, 생략 습관 같은 요소가 얽혀 있어 영어권에서 잘 작동한 신호가 그대로 통하지 않을 수 있습니다. 한국어 기반 감별 연구와 데이터셋이 더 많이 축적되어야 하는 까닭도 여기 있습니다. 

넷째 한계는 형식성과 인간 다양성의 충돌입니다. 사람도 늘 개성 넘치게 쓰지 않습니다. 공문, 안내문, 브리프, 보고서, 교재, 시험 답안은 본래 예측 가능성이 높고 리듬 변화가 적을 수 있습니다. 반대로 생성형 AI는 점점 더 인간의 망설임과 변주를 흉내 냅니다. 감별 기술이 사람 글의 다양성을 충분히 포착하지 못하면, 오히려 성실한 사람 글이 피해를 입을 수 있습니다. 비원어민 글이나 형식적 문체가 억울하게 의심받는 문제는 지금도 자주 거론됩니다. 그래서 감별 정확도만 말하는 홍보 문구를 곧이곧대로 받아들이기 어렵습니다.

다섯째 한계는 사회적 오용입니다. 감별 기술은 편리한 권위 장치처럼 보이기 쉽습니다. 숫자와 색상, 퍼센티지가 화면에 뜨면 마치 기계가 진실을 판결한 듯한 인상을 주기 때문입니다. 그러나 그런 신호를 조직이 무비판적으로 받아들이면, 기술은 분쟁을 줄이기보다 억울한 낙인을 만들어 낼 수 있습니다. 감별 결과를 징계, 채용, 평판 판단에 곧바로 연결하는 행태는 그래서 매우 조심해야 합니다. 사람의 삶에 영향을 주는 순간, 감별기는 통계도구를 넘어 사회적 권력이 됩니다.

마지막으로, 감별 기술은 늘 생성 기술과 함께 진화한다는 점을 잊지 말아야 합니다. 생성 모델이 더 정교해질수록 통계 기반 감별은 더 어려워질 수 있습니다. 반대로 감별 체계가 강해질수록 워터마크, 프로비넌스, 콘텐츠 인증 같은 인프라 기술은 더 중요해질 것입니다. 저는 이 경쟁이 “누가 이기느냐”보다 “무엇을 기준으로 신뢰를 설계하느냐”의 문제로 바뀔 것이라고 봅니다. 감별은 결국 기술의 승부가 아니라 제도와 문화, 투명성의 설계 싸움이기 때문입니다.

용어 사전

퍼플렉서티

퍼플렉서티는 한 문장이 다음 단어를 얼마나 쉽게 예측하게 만드는지 측정하는 개념입니다. 값이 낮으면 언어모델이 보기에 매우 그럴듯한 단어 조합이라는 뜻이고, 값이 높으면 뜻밖의 단어 전환과 표현 변주가 많다는 뜻으로 읽을 수 있습니다. AI 감별에서는 “너무 매끈하고 너무 예상 가능한 문장”을 잡는 데 자주 활용됩니다. 다만 교재나 공문처럼 본래 안정적인 문체도 낮은 값을 가질 수 있으므로, 퍼플렉서티 하나만으로 결론을 내리면 오판이 생길 수 있습니다. 감별에서는 단독 판정 지표라기보다 다른 신호와 함께 묶어 보는 보조 기준으로 이해하는 편이 안전합니다.

버스트니스

버스트니스는 글의 리듬 변화, 곧 문장 길이와 구조의 흔들림 정도를 가리킵니다. 사람이 쓴 글은 호흡이 들쭉날쭉하고, 설명과 감정, 요약과 도약이 섞이며, 문장 길이의 편차가 크게 나타나는 경우가 많습니다. AI 글은 평균적으로 더 고르고 정리된 리듬을 보이는 일이 잦아 감별기가 주목하는 신호가 되었습니다. 그러나 형식성이 강한 사람 글도 버스트니스가 낮을 수 있고, 최근 생성 모델은 이런 리듬을 흉내 낼 수 있어 절대 기준으로 보기는 어렵습니다. 결국 버스트니스는 문장 호흡을 읽는 중요한 창이지만, 다른 문체 분석과 함께 해석해야 힘을 갖습니다.

워터마크

텍스트 워터마크는 AI가 문장을 생성하는 순간 사람 눈에 거의 드러나지 않는 신호를 함께 심는 기술입니다. 사후에 탐지기를 돌려 그 신호가 남아 있는지 확인함으로써, 글의 생성 체계를 추적하려는 목적을 가집니다. 문체 추정보다 더 직접적인 근거를 제공할 수 있다는 장점이 있어 큰 관심을 받고 있습니다. 다만 텍스트는 편집과 재작성에 취약하기 때문에, 문장을 여러 차례 손보면 신호가 약해질 가능성이 있습니다. 그래서 워터마크는 강력한 대안이 될 수 있으나, 프로비넌스와 사람 검토를 함께 둔 복합 구조 안에서 볼 때 더 안정적입니다.

프로비넌스

프로비넌스는 콘텐츠의 기원과 생성·편집 이력을 뜻합니다. 누가 만들었고, 어떤 도구를 썼고, 어떤 수정이 있었는지 기록으로 남겨 진위를 확인하려는 접근입니다. 문체만 보고 추정하는 감별 방식보다 근거가 더 명시적일 수 있어, 앞으로의 신뢰 인프라에서 매우 중요한 위치를 차지할 가능성이 큽니다. C2PA와 Content Credentials는 이런 흐름을 대표하는 표준으로, 생성 방식과 편집 기록을 확인할 수 있는 구조를 제안합니다. 다만 생태계 전반의 도입과 메타데이터 보존이 함께 이뤄져야 실효성이 높아집니다.

오탐과 미탐

오탐은 사람이 쓴 글을 AI가 쓴 것처럼 잘못 판정하는 경우를 말하고, 미탐은 AI가 쓴 글을 사람 글처럼 놓치는 경우를 말합니다. 감별 기술을 평가할 때 이 둘은 늘 함께 봐야 합니다. 오탐이 많으면 억울한 피해자가 생기고, 미탐이 많으면 감별 기술의 실효성이 떨어집니다. 현실에서는 둘 사이 균형을 잡는 일이 매우 어렵습니다. 문턱값을 엄격하게 두면 오탐은 줄어들 수 있지만 미탐이 늘 수 있고, 반대로 폭넓게 잡으면 AI 흔적을 더 많이 포착할 수 있으나 사람 글 피해가 커질 수 있습니다. 그래서 감별기는 점수 그 자체보다, 그 점수를 어떤 절차 속에서 쓰느냐가 더 중요합니다.

AI 감별 기술의 한계와 인간의 최종 검토 필요성을 상징하는 이미지

기술이 점수를 제시할 수는 있어도, 책임 있는 판정과 맥락 해석은 여전히 사람의 몫으로 남아 있습니다.

AI 감별 기술은 이제 막 걸음마를 떼는 분야가 아닙니다. 퍼플렉서티와 버스트니스 같은 통계 지표를 넘어, 딥러닝 분류, 워터마크, 프로비넌스, Content Credentials 같은 더 복합적인 체계로 빠르게 진화하고 있습니다. 그 변화는 우리에게 분명한 메시지를 줍니다. 앞으로의 감별은 문장 한 줄의 분위기를 읽는 데서 끝나지 않고, 생성과 편집의 생애주기 전체를 확인하는 방향으로 옮겨갈 가능성이 큽니다. 

그럼에도 잊지 말아야 할 기준이 있습니다. 감별 기술은 참고 도구이지 절대 심판이 아닙니다. OpenAI의 과거 분류기가 보여 준 낮은 정확도, Turnitin이 직접 적어 놓은 오판 가능성, 연구자들이 보여 준 회피 공격의 위력은 우리에게 늘 같은 경고를 보냅니다. “숫자를 곧바로 사실로 받아들이지 말라”는 경고입니다. 

그래서 AI 감별 기술의 미래는 더 높은 적중률 하나에만 달려 있지 않습니다. 더 넓게 보면 투명한 작성 관행, 출처 인증 인프라, 사람의 최종 검토, 이의제기 절차, 교육 현장의 공정한 평가 규범, 플랫폼의 책임 있는 라벨링이 함께 움직일 때 비로소 건강한 방향이 열립니다. 기술이 잘 작동하는 사회보다, 기술을 잘 다루는 사회가 더 중요하다는 말이 여기서 힘을 얻습니다.

결국 우리가 묻는 질문은 “이 글은 누가 썼는가”를 넘어서게 됩니다. 우리는 어떤 글을 신뢰할 것인가, 어떤 책임 구조를 세울 것인가, 사람과 기계가 함께 쓰는 시대에 진정성을 어떻게 다시 정의할 것인가를 물어야 합니다. 감별은 끝이 아닙니다. 그 질문을 시작하게 만드는 첫 문턱입니다.

댓글 쓰기

Ad End Post