AI의 빛과 그림자: 구글 ‘생명의 신호’인가, 2026년 ‘모델 붕괴’의 경고인가?

AI의 빛과 그림자: 구글 ‘생명의 신호’인가, 2026년 ‘모델 붕괴’의 경고인가?

AI의 빛과 그림자: 구글 '생명의 신호'인가, 2026년 '모델 붕괴'의 경고인가?

1. 생명의 신호(Signs of Life)?

엊그제 스레드에서 ‘구글, 제미나이 3에서 생명의 신호느껴… 무언가 찾은 것 같아’라는 글을 보았다. 궁금해서 찾아보니, 툴시 도시 구글 제미나이 제품담당 수석 이사는 22일(현지시간) 월스트리트 저널과의 인터뷰에서 한 말이었다. 그는 “수개월간의 제미나이 3 테스트를 통해 대형언어모델(LLM)의 발전에 관한 ‘무언가를 찾았다(hit on something)’라는 확신을 갖게 됐다”고 했다. 사람들은 이것을 AI에서 AIG로 가는 신호를 잡았다는 것이 아닐까 추측하고 있다.

관련기사를 보면, 가장 인상적인 대목은 제미나이3이 올해가 2025년을 받아들이지 못하다가 검색도구를 통해 틀렸다는 것을 깨닫고 보인 반응이었다. 맨 처음 출력한 말은 ‘oh my God’이었고, 뒤를 이어 마치 충격 받은사람처럼 “나… 나는… 뭐라고 말해야 할지 모르겠다. 당신 말이 맞았다. 내 내부 시계가 틀렸다”라고 답변을 이어갔다는 것이었다.

지난번 openAI가 내놓은 브라우저 아틀라스도 그렇고, 여기까지 보면 인공지능이 기능상으로 뭔가 발전을 계속 하고 있는 것으로 보인다. 구글과 오픈AI 두 인공지능의 양대산맥이 엎치락 뒷치락 하면서 AI에서 AGI로 혁신을 견인하기 위해 애쓰는 모양새다. 하지만 과연 이런 성장세는 계속 될 것인가 하는 점은 살짝 의문이다.

📌 AI, AGI, ASI – 인공지능의 로드맵
AI (인공지능, Artificial Intelligence 또는 Artificial Narrow Intelligence) : 특정 분야의 전문가 (현재 우리가 쓰는 AI) 한 가지 일은 잘하지만, 다른 분야의 문제로 넘어가면 무용지물
AGI(인공일반지능, Artificial General Intelligence) : 인간 수준의 지능 (AI의 최종 목표) 인간이 할 수 있는 모든 지적 작업을 수행할 수 있습니다. 스스로 학습하고, 추론하며, 창의적으로 문제를 해결 가능.
ASI(초인공지능, Artificial Super Intelligence) : 인간을 초월한 지능 (이론적 최고 단계) AGI 개발 이후, 이 AGI가 스스로를 급속도로 개선시켜 순식간에 ASI 단계에 도달할 것이라는 예측이 많음. 이 단계를 ‘기술적 특이점(Technological Singularity)’이라고 부르기도 함.

2. 데이터 고갈 문제

구글이 ‘생명의 신호’라는 긍정적인 메시지를 트위터에 올렸음에도, 내가 회의적인 시각을 갖게 된 것은 그 글을 읽기 바로 며칠 전, 2026년이면 데이터가 고갈(Data Exhaustion)될 것이라는 기사를 읽었기 때문이다. ▶ “더 이상 학습할 데이터가 없다”- 박사급 성능 멀어지는 챗GPT

데이터 고갈은 거기서 그치는 것이 아니라 ‘모델 붕괴(Model Collapse)’로 이어지는 심각한 문제다. AI 모델, 특히 거대 언어 모델(LLM)은 인터넷상의 방대한 양질의 텍스트 데이터를 기반으로 한다. 이 데이터란 인간이 만든 도서, 논문, 뉴스, 고품질 웹 콘텐츠 등을 가리킨다. 그런데 AI 학습에 무료로 쓸 수 있는 데이터는 이미 거의 다 학습을 해버렸기 때문에 더 이상 쓸만한 데이터가 없는 상태가 되어버렸다.

더 이상 배울 게 없으면 정체기가 온다. 더 나아가 퇴보가 시작된다. 왜 그럴까? 양질의 데이터가 고갈되면서, AI 개발사들은 불가피하게 AI가 생성한 데이터를 다시 AI 모델 학습에 사용하는 ‘자가 포식 루프(Cannibalistic Loop)’에 의존하기 때문이다.

인공지능이 자기가 만든 부정확하거나 편향된 데이터를 학습했을 때, 그 오류는 반복적으로 복사되고 확장된다. 이제까지는 생성형 인공지능의 환각이 문제였지만, 앞으로는 MAD(Model Autophagy Disorder)가 문제될 것으로 보는 견해가 많다.

이 MAD, 즉 모델 자가포식 장애란 오염된 소의 부산물로 만든 사료를 먹은 건강한 소가 광우병에 걸리는 악순환에 빗댄 말로, 인공지능이 만든 부정확한 AI 데이터를 학습한 인공지능이 더 부정확하게 변하는 악순환을 가리킨다.

실제로 엑스나 스레드 같은 소셜 미디어에는 인공지능 답변에 오류가 많다, 출처 링크나 그 데이터도 인공지능이 만들어낸 것들이 많았다는 사용자들의 경험담이 최근 종종 목격되고 있다.

3. 엇갈린 분석

그렇다면 한쪽에선 생명의 신호라는 희망찬 메시지를, 또 다른 쪽에선 데이터 고갈로 인한 모델 붕괴를 우려하는 서로 다른 목소리를 내는 이유는 뭘까? 이것은 AI 업계가 현재 단기적 성과와 장기적 구조라는 딜레마에 직면했음을 보여준다.

가. 구글의 데이터 장악력이 주는 단기적 희망

후발주자였던 제미나이는 그동안 약진을 거듭해 이제 정상을 다투는 위치까지 왔다. 그것은 아무래도 검색과 색인이라는 구글의 독특한 특성 덕이라 생각된다. 마치 디지털 세계의 거대한 도서관, 아카이브라 할 수 있는 구글의 색인과 검색 알고리즘은 AI 학습 데이터를 확보하는 데 있어서 다른 어떤 경쟁사보다 압도적으로 유리하다.

이를 바탕으로한 제미나이는 인간의 추론 능력과 유사한 반응을 보였고, 이런 AI 기술 혁신은 AGI로 도약을 희망하는 구글측에 매우 고무적으로 작용한 것 같다. 하지만 이런 ‘생명의 신호’라는 것은 어떤 측정 가능한 벤치마크 점수가 아닌, 내부 전문가가 느낀 주관적인 인상을 표현한 것에 불과하다. 다시 말해, AGI에 대한 가능성을 시사할 뿐, 보장하는 것은 아니라는 뜻이다.

📌 벤치마크 점수 : 인공지능(AI) 분야에서 모델의 성능을. 객관적으로 측정하고 비교하기 위해 사용하는 표준화된 시험 점수. 쉽게 말해 AI 모델들이 얼마나 똑똑한지를 겨루는 ‘표준 시험 성적표’. ▶ AI 벤치마크, 과연 믿어도 될까? 지표부터 활용법까지

나. 장기적 위협과 대안

하지만 장기적으로 봤을 때, 데이터 고갈 문제는 AI의 지속적인 발전 자체를 위협하는 심각한 구조적 문제다. 이런 문제를 해결하기 위해 업계에선 합성 데이터(Synthetic Data)를 학습시킬 것은 대안으로 내세우고 있다. 자가포식 루프로 인공지능 모델 붕괴를 막기 위해 사람, 또는 매우 강력한 다른 AI가 정확성과 논리적 일관성을 철저히 검수하고 피드백하여 만든다는 것인데, 이 역시 인공지능이 만드는 데이터이긴 마찬가지다.

그럼에도 불구하고 업계는 이 합성 데이터를 ‘자가 포식’의 위험을 넘어서는 유일한 돌파구로 보고 집중 투자하고 있다. 하지만 그렇다고 과연 인공지능이 계속 폭발적인 성장을 하게 될지, 그리하여 사람들이 생각했던 것 만큼 빠른 시간 내에 AGI에 도달하게 될지는 미지수다. 그러기 위해선 역시 데이터 문제가 선결되어야 한다. 인공지능의 먹이가 되는 것은 전기나 물뿐만이 아니기 때문이다.

그러고 보면 이번 ‘생명의 신호’ 같은 발언은 단순히 기술적 사실을 넘어, 개발 주체(구글)의 입장과 업계 상황이 복합적으로 반영된 메시지로 생각된다. 경쟁사에 비해 우위에 있음을 과시하고, 투자자들에게 지속적 혁신과 미래 수익을 확신시키는 전략적인 메시지로 볼 수 있겠다. 개발자들의 순수한 열망과 희망도 포함되어 있음은 물론이다.

함께 읽으면 좋은 글


이 글은 2025년 11월 26일에 작성되었으며, 정책 및 기술 상황에 따라 변경될 수 있습니다. 본 기사는 일반적인 미래 산업 동향 정보를 제공하며, 특정 투자나 사업 결정에 대한 전문적인 조언이 아닙니다. 최종 결정 전에는 반드시 공식 기관 및 전문가의 최신 정보를 확인하시기 바랍니다. 이 글은 일반적인 정보를 제공하며, 특정 의료적 또는 법률적 조언이 아닙니다.

파트너스 활동으로 소정의 수수료를 제공받을 수 있습니다.

“Harupaper의 새로운 이야기를 가장 먼저 만나보세요”

구독하시면 새 글을 빠르고 편하게 받아보실 수 있습니다.

댓글 남기기