본문 바로가기
배움: MBA, English, 운동

얀 르쿤의 선언: LLM은 AGI로 가는 고속도로가 아닌, 막다른 길이다

by Heedong-Kim 2026. 3. 28.
전 세계가 생성형 AI, 특히 OpenAI가 쏘아 올린 거대언어모델(LLM)의 화려한 퍼포먼스에 매료되어 있습니다. 마치 인간처럼 시를 쓰고 코딩을 하며 대화하는 ChatGPT의 모습은 우리에게 곧 '인공 일반 지능(AGI)'이 도래할 것만 같은 장밋빛 환상을 심어주었습니다. 하지만 기술의 심연을 들여다보는 전문가들의 시선은 사뭇 다릅니다.
 
딥러닝의 대부이자 메타(Meta)의 수석 AI 과학자인 얀 르쿤(Yann LeCun) 교수는 현재의 AI 열풍을 향해 극히 냉소적인 진단을 내놓습니다. 대중이 AI의 만능론에 취해 있을 때, 그는 왜 지금의 LLM 방식이 지능의 본질에 도달할 수 없는 '막다른 길(Dead-end)'이라고 단언하는 것일까요? 우리가 '진정한 지능'이라고 믿었던 기술의 실체를 다시 규정해야 할 시점입니다.
 
 

언어라는 좁은 창문: LLM이 '현실'의 문턱을 넘지 못하는 이유

 
현재 LLM이 작동하는 근본 원리는 '자기회귀 모델(Autoregressive Model)'에 기반한 '다음 단어 예측(Next Token Prediction)'입니다. 이는 방대한 양의 텍스트 데이터를 학습하여 통계적으로 가장 확률이 높은 다음 단어를 제시하는 방식입니다. 얀 르쿤은 바로 이 지점에서 LLM의 근본적인 지능 결여를 지적합니다.
 
언어는 인간 지능의 아주 작은 부분일 뿐이며, 세상에 존재하는 정보의 극히 일부만을 추상화하여 담고 있습니다. 텍스트라는 '데이터의 감옥'에 갇힌 LLM은 실제 물리 세계의 법칙이나 인과관계를 전혀 이해하지 못합니다. 예를 들어, 우리가 테이블 위의 물병을 밀면 바닥으로 떨어질 것이라는 사실을 아는 것은 수만 권의 책을 읽어서가 아닙니다. 물리적 세계를 관찰하고 상호작용한 결과입니다. 텍스트만 학습한 AI는 이러한 '상식(Common Sense)'이 결여되어 있으며, 그저 그럴듯한 문장을 생성하는 '확률적 앵무새(Stochastic Parrots)'에 불과합니다.
 
"LLM은 실제 세계가 어떻게 돌아가는지에 대한 근본적인 이해가 전혀 없습니다. 그저 언어의 통계적 구조를 흉내 낼 뿐이며, 이는 우리가 '지능'이라고 부르는 것과는 본질적으로 거리가 멉니다. 그것은 유용할 수는 있어도 똑똑한 것은 아닙니다."
 
텍스트는 현실을 요약한 결과물이지 현실 그 자체가 아닙니다. 수영하는 법을 글로 아무리 학습해도 물에 들어가는 순간 가라앉는 것과 마찬가지입니다. 현실 세계의 데이터를 직접 경험하지 못한 AI는 결코 인간과 같은 상식의 벽을 넘을 수 없습니다.
 
 
 

스케일링 법칙의 함정: 자본이 만든 거대한 '확률적 앵무새'

 
얀 르쿤은 OpenAI가 주도하는 현재의 발전 방향, 즉 모델의 파라미터를 키우고 더 많은 데이터를 쏟아붓는 '스케일링 법칙(Scaling Law)'만으로는 AGI에 도달할 수 없다고 비판합니다. 일명 '오픈AI 방식의 손절'을 주장하는 그의 논거는 '학습 효율성'에 있습니다.
 
인간의 아이는 약 4~5세가 될 때까지 약 10억 개의 단어를 듣거나 읽지만, 시각을 통해서는 그보다 수천 배 많은 '페타바이트'급의 시각적 정보를 처리합니다. 반면 LLM은 인류가 생산한 거의 모든 텍스트(기가바이트 수준)를 집어삼키고도 고작 문장 하나 제대로 추론하지 못해 환각(Hallucination)을 일으킵니다. 이는 현재의 아키텍처가 지능을 구현하는 방식 자체가 극도로 비효율적임을 방증합니다.
 
단순히 컴퓨팅 자원을 늘리는 것은 논리적 단계가 필요한 추론이나, 목표를 달성하기 위해 하위 과제를 설정하는 '계획 능력'을 부여하지 못합니다. 기술 업계가 거대 자본을 투입해 덩치를 키우는 데 혈안이 되어 있을 때, 르쿤은 기본 아키텍처의 패러다임을 전환해야 한다고 경고합니다.
 
 
 

대안적 아키텍처 JEPA: '재구성'이 아닌 '의미'를 예측하라

 
그렇다면 LLM 이후의 AI는 어떤 모습이어야 할까요? 르쿤은 인간과 동물이 학습하는 방식에서 해답을 찾은 '세계 모델(World Models)'을 제시합니다. 그리고 이를 구현하기 위한 구체적인 방법론이 바로 **JEPA(Joint Embedding Predictive Architecture)**입니다.
 
기존의 생성형 AI(Generative AI)는 이미지의 모든 픽셀이나 문장의 모든 단어를 복원하려고 노력합니다. 이는 리소스 낭비일 뿐 아니라 불필요한 노이즈에 집착하게 만듭니다. 반면 JEPA는 고차원적인 데이터에서 '의미'가 담긴 특징(Embedding)만을 추출하여, 추상화된 공간(Latent Space)에서 다음 상황을 예측합니다.
  • 잠재 공간에서의 예측: 모든 세세한 디테일을 맞추려 하지 않고, 핵심적인 개념적 변화를 예측함으로써 불확실성을 더 효과적으로 다룹니다.
  • 관찰을 통한 상식 습득: 텍스트가 아닌 비디오와 같은 시각 데이터를 통해 '무엇이 가능하고 무엇이 불가능한지'를 스스로 파악합니다.
  • 추론과 계획의 기초: 세계 모델을 갖춘 AI는 특정 행동을 했을 때 발생할 결과를 미리 시뮬레이션할 수 있으며, 이는 곧 인간과 같은 '계획 능력'으로 이어집니다.
"미래의 AI는 단순히 다음 단어를 맞추는 기계가 아니라, 세상이 어떻게 변화할지 예측하고 그 안에서 자신의 행동을 설계할 수 있는 '세계 모델'을 갖춘 시스템이 될 것입니다."
 
 
 

결론: AI의 정점인가, 새로운 시작인가?

 
우리는 지금 AI 기술의 정점에 와 있는 것처럼 느끼지만, 얀 르쿤의 관점에서 보면 우리는 이제 막 잘못된 길에서 유턴을 준비해야 하는 시점에 서 있습니다. LLM은 정보 검색과 텍스트 생성에는 탁월한 도구일 수 있으나, 그것이 지능의 종착역은 결코 아닙니다.
 
세상을 이해하고, 물리 법칙을 체득하며, 인간처럼 상식적으로 사고하는 AI를 만들기 위해서는 '텍스트의 감옥'과 '통계적 예측'이라는 도그마에서 벗어나야 합니다. 르쿤이 제시한 JEPA와 세계 모델은 그 새로운 여정의 이정표입니다.
 
결국 우리는 스스로에게 질문을 던져야 합니다. "우리는 단지 말을 잘하는 기계를 원하는가, 아니면 우리와 같은 세상을 이해하는 지능을 원하는가?" 지금의 LLM 열풍은 진정한 인공지능 시대를 향한 거대한 서막에 불과하며, 진짜 승부는 이제부터 시작입니다.
 
 



728x90