AI가 콘텐츠를 만들고, AI가 콘텐츠를 요약해서 보여주고, AI가 그 콘텐츠로 다시 학습한다. 이 순환이 이미 돌아가고 있다.
감각적으로는 다들 느끼고 있지만, 실제로 어느 정도인지는 데이터를 봐야 체감이 된다. 읽는 사람, 쓰는 사람, AI 모델 자체 — 세 축에서 지금 무슨 일이 벌어지고 있는지 정리해봤다.
1. 읽는 사람 — 클릭이 사라지고 있다
검색의 60%는 클릭 없이 끝난다
SparkToro가 2024년 Datos/Semrush 클릭스트림 데이터를 분석한 결과, 미국 기준 구글 검색 1,000건 중 오픈 웹으로 이어지는 클릭은 360건에 불과했다. 나머지는 검색 결과 페이지 안에서 답을 얻고 떠나는 제로클릭 검색이다.
구글의 AI Overview가 표시되는 쿼리에서는 이 비율이 83%까지 올라간다.
AI Overview가 뜨면 CTR은 61% 하락한다
Seer Interactive가 42개 조직, 2,510만 오가닉 노출 데이터를 분석한 결과, AI Overview가 표시된 정보성 쿼리에서 오가닉 CTR은 1.76%에서 0.61%로 61% 하락했다. 유료 광고 CTR도 65~68% 떨어졌다.
구글발 트래픽, 글로벌 1/3 감소
Reuters Institute의 2026년 전망 보고서에 인용된 Chartbeat 데이터에 따르면, 전 세계 2,500개 이상 퍼블리셔의 구글 검색 유입 트래픽이 1년 만에 약 1/3 감소했다. 미국은 -38%로 가장 타격이 컸고, 소규모 퍼블리셔는 -60%에 달했다. 라이프스타일, 날씨, TV 편성표 같은 유틸리티형 콘텐츠가 특히 큰 영향을 받았다.
그런데, 인용되면 얘기가 달라진다
같은 Seer Interactive 연구에서 흥미로운 반전이 있다. AI Overview에 출처로 인용된 브랜드는 오가닉 CTR이 오히려 35% 높았다. 인용되지 않은 경우와 비교했을 때의 수치다.
다만 이건 상관관계이지 인과관계가 아니다. 원래 권위가 높은 브랜드가 인용될 확률도 높기 때문이다. 그래도 시사점은 분명하다: AI가 중간 요약 레이어가 된 세상에서, “인용될 만한 원본”이 되는 것이 새로운 경쟁력이다.
2. 쓰는 사람 — AI가 이미 과반을 넘었다
새 웹페이지의 74%에서 AI 콘텐츠 감지
Ahrefs가 2025년 4월 기준 90만 개의 신규 영문 웹페이지(도메인당 1개)를 분석한 결과, 74.2%에서 AI 생성 콘텐츠가 감지되었다.
다만 맥락이 중요하다. 이 중 순수 AI 생성(거의 전부 기계 작성)은 2.5%에 불과했다. 대부분은 인간과 AI가 혼합한 콘텐츠다. “AI가 글을 쓴다”보다는 “AI 없이 글을 쓰는 경우가 드물어지고 있다”가 더 정확한 표현이다.
영어 기사, AI 작성이 인간을 넘어섰다
Graphite가 CommonCrawl의 65,000개 영문 URL을 분석한 결과, 2024년 11월 기준으로 AI 생성 기사가 인간 작성 기사를 수적으로 추월했다. ChatGPT 출시 이전에는 AI 감지율이 약 4~10% 수준이었던 것과 비교하면, 2년도 안 되는 사이에 벌어진 변화다.
단, Graphite의 분석에 따르면 이 AI 생성 기사들은 구글 검색이나 ChatGPT 결과에 거의 노출되지 않는다. 양은 폭증했지만 도달은 제한적이라는 뜻이다.
합성 콘텐츠 비율은 계속 올라간다
Europol Innovation Lab은 보고서에서 “2026년까지 온라인 콘텐츠의 최대 90%가 합성 생성될 수 있다”는 전문가 추정을 인용했다. 이 수치 자체는 과장이라는 비판이 많다. 수학적으로 현실성이 낮다는 지적도 있다.
하지만 방향성은 부정하기 어렵다. 텍스트, 이미지, 영상 전반에서 AI 생성 비율이 빠르게 올라가고 있는 것은 사실이고, 이 속도라면 “대부분의 콘텐츠가 어떤 형태로든 AI를 거친다”는 미래는 이미 가까이 와 있다.
3. AI 모델 자체 — 자기 꼬리를 먹는 뱀
Model Collapse: AI가 AI 데이터로 학습하면 무너진다
2024년 Nature에 발표된 논문(Shumailov et al.)이 경고한 현상이 Model Collapse다. AI 모델이 다른 AI가 생성한 데이터로 반복 학습하면, 세대를 거듭할수록 원본 데이터의 분포를 잊어간다.
초기에는 분포의 꼬리(희소한 데이터, 소수의 관점)부터 사라진다. 이를 Early Model Collapse라고 한다. 계속되면 전체 분포가 원본과 전혀 다른 형태로 수렴하는 Late Model Collapse에 이른다.
쉽게 말하면, 복사기로 복사한 종이를 다시 복사하면 점점 흐려지는 것과 같다. AI가 생성한 콘텐츠가 웹을 채우고, 그 웹에서 다시 데이터를 수집해서 학습하면, 모델은 점점 다양성을 잃고 평균으로 수렴한다.
왜 이게 “읽는 사람”에게도 문제인가
Model Collapse는 기술적 문제로 보이지만, 결국 콘텐츠 소비자에게 돌아온다.
- AI가 다양한 관점을 잃으면, 추천도 검색 결과도 균일해진다
- 소수의 목소리, 비주류 장르, 틈새 주제가 학습 데이터에서 먼저 사라진다
- “모든 AI가 비슷한 답을 하는” 미래는 기술적 한계가 아니라 데이터 오염의 결과다
Nature 논문의 반론도 있다. 혼합 데이터(인간+AI)로 학습하면 붕괴가 완화된다는 연구도 나왔다. 하지만 현실에서 “순수한 인간 데이터”를 구별해서 수집하는 것 자체가 점점 어려워지고 있다는 게 문제의 핵심이다.
그래서, 어떻게 해야 하는가
이 세 가지 흐름을 종합하면 하나의 구조가 보인다:
AI가 콘텐츠를 생산하고 → AI가 콘텐츠를 중개하고 → AI가 그 콘텐츠로 학습한다.
이 순환에서 인간 고유의 경험과 관점이 희석되면, 전체 생태계의 품질이 내려간다.
| 축 | 지금 벌어지는 일 | 시사점 |
|---|---|---|
| 읽는 사람 | 클릭 없이 소비, 원본 도달 감소 | ”인용될 만한 원본”이 새로운 경쟁력 |
| 쓰는 사람 | AI 보조 글쓰기가 기본값 | 양의 경쟁은 끝남, 고유한 관점이 차별화 |
| AI 모델 | 합성 데이터 학습 → 다양성 손실 | 인간 원본 데이터의 가치가 올라감 |
결국 역설적인 결론에 도달한다. AI가 콘텐츠를 범람시킬수록, 사람이 직접 경험하고 생각해서 쓴 글의 가치는 오히려 올라간다. AI가 복제할 수 없는 건 경험이고, 경험에서 나온 관점이다.
데이터는 이 방향을 가리키고 있다. 문제는 그 사이에서 개인 크리에이터와 소규모 퍼블리셔가 트래픽 절벽을 버틸 수 있느냐다. 그건 또 다른 글에서 다뤄야 할 주제다.
참고 자료:
- SparkToro, “2024 Zero-Click Search Study” (Datos/Semrush 클릭스트림 데이터)
- Seer Interactive, “AIO Impact on Google CTR” (2024.6~2025.9, 42개 조직 분석)
- Reuters Institute / Chartbeat, “Journalism and Technology Trends and Predictions 2026”
- Ahrefs, “What Percentage of New Content Is AI-Generated?” (2025.4, 90만 페이지 분석)
- Graphite, “More Articles Are Now Created by AI Than Humans” (CommonCrawl 65,000 URL)
- Europol Innovation Lab, “Facing Reality? Law Enforcement and the Challenge of Deepfakes”
- Shumailov et al., “AI models collapse when trained on recursively generated data”, Nature (2024)