실리콘밸리에서 가장 주목받는 투자 대상은 새로운 앱도, 혁신적인 하드웨어 제품도 아니다. 바로 한 사람, 일리야 서츠케버(Ilya Sutskever)다.
OpenAI의 공동 창립자이자 전 수석 과학자였던 서츠케버가 설립한 AI 스타트업 **Safe Superintelligence(SSI)**가 최근 약 20억 달러(약 2조 7천억 원)의 투자를 유치하며 기업 가치 300억 달러(약 40조 원)를 기록했다. 이로 인해 SSI는 세계에서 가장 가치 있는 AI 스타트업 중 하나로 자리 잡았다.
지난 몇 년간 AI 산업은 눈부신 발전을 이루어 왔다. 특히 OpenAI의 ChatGPT 출시 이후, AI는 단순한 연구 분야를 넘어 비즈니스와 일상생활의 필수적인 기술로 자리 잡았다. 이제 AI 기업들은 더욱 강력한 모델을 개발하고, 이를 기업용 솔루션과 소비자 서비스로 확장하는 데 집중하고 있다.
그러나 이 같은 AI 혁신의 중심에 있던 한 인물, **일리야 서츠케버(Ilya Sutskever)**는 다른 길을 선택했다. OpenAI의 공동 창립자이자 전 수석 과학자로서, 그는 GPT-4와 같은 최신 AI 모델 개발을 주도하며 AI 연구의 최전선에 서 있던 인물이었다. 하지만 2023년 11월, OpenAI의 CEO 샘 알트만(Sam Altman)과의 갈등 끝에 OpenAI를 떠났고, 2024년 새로운 AI 스타트업 "Safe Superintelligence(SSI)"를 설립했다.
SSI는 실리콘밸리에서 가장 비밀스러운 AI 기업 중 하나다. 기존 AI 기업들이 상업적 제품을 출시하며 연구와 비즈니스를 병행하는 것과 달리, SSI는 초지능(Super Intelligence, SI) 개발에만 집중하며, 제품 출시 계획이 없다. 그럼에도 불구하고, **기업 가치는 300억 달러(약 40조 원)**로 평가되며, 실리콘밸리에서 가장 빠르게 성장하는 AI 스타트업 중 하나로 부상했다.
과연 SSI는 기존 AI 기업들과 무엇이 다를까? 그리고 OpenAI와의 결별 이후 서츠케버가 추구하는 **"안전한 초지능(Safe Super Intelligence)"**은 어떤 의미를 가지는 것일까? 이 글에서는 SSI의 운영 방식, 연구 철학, 그리고 AI의 미래에 대한 서츠케버의 비전을 심층적으로 살펴본다.
🔎 SSI는 무엇이 다른가?
SSI는 일반적인 AI 스타트업들과 완전히 다른 접근 방식을 취하고 있다. 대부분의 AI 기업들이 챗봇이나 비즈니스 애플리케이션을 출시하며 시장에서 입지를 다지는 반면, SSI는 **슈퍼 인텔리전스(Super Intelligence, 초지능)**가 개발될 때까지 어떤 제품도 출시하지 않겠다는 방침을 고수하고 있다.
슈퍼 인텔리전스(Super Intelligence)란?
인간 전문가들을 능가하는 AI로, 거의 모든 분야에서 인간보다 더 뛰어난 판단을 내릴 수 있는 시스템을 의미한다. OpenAI, 구글, Anthropic 등 주요 AI 기업들도 이를 목표로 연구를 진행하고 있다.
서츠케버는 OpenAI에서 연구했던 방식과는 전혀 다른 새로운 방법론을 사용하여 초지능을 개발하고 있다고 밝히며, 이를 "새로운 산을 오르는 것과 같다"고 표현했다.
일반적으로 AI 스타트업들은 기술 개발과 동시에 제품을 출시하며 시장에서의 입지를 다지는 전략을 취한다. 예를 들어 OpenAI는 GPT-4 기반의 ChatGPT를 출시하고, 구글은 Gemini, Anthropic은 Claude를 내놓으며 기술의 발전을 점진적으로 공개하는 방식을 택했다. 하지만 SSI는 전혀 다른 접근 방식을 채택하고 있다.
SSI의 목표는 단순한 범용 인공지능(AGI)이 아니라 **초지능(Super Intelligence, SI)**의 개발이다. 초지능은 인간의 모든 전문가들을 능가하는 AI로, 단순한 데이터 분석이나 패턴 인식 수준을 넘어 창의적인 문제 해결, 과학적 발견, 그리고 자율적 의사결정까지 수행할 수 있는 AI를 의미한다.
SSI가 다른 점은 다음과 같다:
- 완전한 비공개 연구
- 기존 AI 기업들이 연구 성과를 논문, 제품, 또는 API 형태로 공개하는 것과 달리, SSI는 어떤 연구 결과도 외부에 공유하지 않는다.
- 심지어 연구 방향조차 명확히 알려져 있지 않으며, "기존 방식과는 완전히 다른 방법론을 적용하고 있다"는 점만 언급되고 있다.
- OpenAI, 구글, Anthropic과 같은 경쟁사들이 뉴럴 네트워크의 확장과 모델 최적화에 집중하는 것과 달리, **SSI는 "새로운 산을 오르고 있다"**는 모호한 표현만을 남기고 있다.
- 제품 개발이 아닌 순수 연구 지향
- OpenAI, 구글, Anthropic은 연구를 진행하면서도 수익 모델을 만들기 위해 기업용 AI 솔루션, API, 챗봇 등의 상업적 제품을 출시하고 있다.
- 그러나 SSI는 **"초지능을 개발하기 전까지는 어떠한 제품도 출시하지 않겠다"**는 입장을 고수하고 있다.
- 이는 AI 연구와 상업적 제품 개발 간의 충돌을 방지하고, 연구에만 몰입할 수 있도록 하겠다는 의도로 보인다.
- 기존 AI 방식과 다른 연구 방법론 적용
- 서츠케버는 OpenAI에서 사용했던 AI 훈련 방식과는 완전히 다른 방법을 시도하고 있다고 언급했다.
- 아직 구체적인 정보는 공개되지 않았지만, 현재 주류 AI 연구인 **"스케일링 법칙(Scaling Laws)"**을 따르지 않는 방식일 가능성이 높다.
- 대부분의 AI 연구는 데이터와 연산량을 증가시켜 성능을 높이는 방법을 사용하지만, SSI는 이를 넘어서는 새로운 패러다임을 탐색하고 있는 것으로 보인다.
이처럼 SSI는 기존 AI 기업들과 완전히 차별화된 전략을 취하고 있으며, 이는 실리콘밸리 투자자들에게도 큰 흥미를 불러일으키고 있다.
🕵️♂️ 철저히 비밀에 싸인 운영 방식
SSI는 실리콘밸리와 텔아비브에 사무실을 두고 있으며, 극도로 보안이 철저한 방식으로 운영되고 있다.
- 공개된 정보 최소화: 공식 웹사이트에는 223자 분량의 간단한 미션 스테이트먼트만 존재하며, 회사의 방향성에 대한 구체적인 설명이 없다.
- 소규모 정예 인력: 현재 직원 수는 20명 수준으로, OpenAI(약 1000명) 및 Anthropic(약 1000명)에 비하면 매우 적다. 또한 SSI는 실리콘밸리의 유명 엔지니어보다는 서츠케버가 직접 멘토링할 수 있는 가능성 있는 인재를 채용하는 방식으로 운영된다.
- 강력한 보안 조치: 면접 과정에서도 지원자들은 휴대폰을 **Faraday Cage(전파 차단 장치)**에 보관해야 한다.
이처럼 철저한 보안 조치와 극도로 제한된 정보 공개에도 불구하고, Sequoia Capital, Andreessen Horowitz와 같은 실리콘밸리 최고의 투자자들이 SSI에 자금을 투입하고 있다. 최근 Greenoaks Capital이 주도한 투자 라운드를 통해 기업 가치는 불과 6개월 만에 5배 이상 증가했다.
SSI는 실리콘밸리와 텔아비브에 사무실을 두고 있지만, 운영 방식은 극도로 비밀스럽다. 다른 AI 스타트업들이 홍보와 인재 유치를 위해 공개적으로 활동하는 것과는 대조적으로, SSI는 의도적으로 자신들의 존재를 감추는 전략을 취하고 있다.
1. 공식 웹사이트에도 정보가 거의 없음
SSI의 공식 웹사이트에는 단 223개의 단어로 구성된 미션 스테이트먼트만 올라와 있으며,
- 회사의 구체적인 연구 방향
- 초지능 개발에 대한 접근 방식
- 핵심 연구진 및 조직 구성
등에 대한 정보는 전혀 공개되지 않았다.
이러한 전략은 실리콘밸리의 일반적인 스타트업 문화와 완전히 반대되는 접근 방식이다. 보통 AI 기업들은 연구 성과를 발표하고, 인재를 유치하기 위해 적극적으로 정보를 공개하는 반면, SSI는 최소한의 정보만 노출하며 내부 연구를 극도로 보호하는 방식을 취하고 있다.
2. 비공개 채용 및 철저한 보안 관리
SSI의 채용 과정 역시 매우 특이하다.
- 면접 과정에서 지원자는 휴대폰을 'Faraday Cage(전파 차단 장치)'에 보관해야 한다.
- 이는 모든 전자 신호를 차단하여 내부 정보가 유출되지 않도록 하기 위한 조치이다.
- 대부분의 직원들은 자신이 SSI에서 일한다는 사실조차 공개하지 않는다.
- LinkedIn(링크드인) 등에서도 SSI에서 근무하고 있다는 기록을 찾기 어렵다.
- 소규모 정예 인력으로 운영되며, 1000명 이상을 고용한 OpenAI 및 Anthropic과는 달리, SSI는 약 20명 정도의 핵심 연구진만을 보유하고 있다.
- 이들은 실리콘밸리에서 유명한 AI 연구자들이 아니라, 서츠케버가 직접 멘토링하며 길러낼 수 있는 인재들 위주로 구성되어 있다.
3. 투자자들조차도 세부 내용을 알기 어려움
일반적으로 AI 스타트업들은 투자자들에게 기술 로드맵과 장기적인 전략을 공유하지만, SSI는 투자자들에게도 세부적인 기술 방향을 공개하지 않고 있다.
- 그럼에도 불구하고 Sequoia Capital, Andreessen Horowitz, Greenoaks Capital과 같은 실리콘밸리 최고의 투자자들이 거액을 투자하고 있다.
- SSI의 기업 가치는 불과 6개월 만에 5배 이상 증가했으며, 현재 약 **300억 달러(약 40조 원)**로 평가되고 있다.
- 투자자들조차도 SSI의 연구가 정확히 어떤 방식으로 진행되고 있는지 알기 어렵지만, 서츠케버의 개인적인 명성과 천재적인 연구 능력에 대한 신뢰로 인해 거액의 투자가 이루어지고 있다.
4. 정보 공개 없이도 영향력을 키우는 전략
AI 스타트업이 기업 가치를 높이는 가장 일반적인 방법은 연구 성과를 발표하고, 시장에서 기술력을 입증하는 것이다. 하지만 SSI는 전혀 다른 접근 방식을 취하고 있다.
- 연구 성과나 제품이 없음에도 불구하고, AI 업계에서 가장 강력한 "신비로운 브랜드"를 구축하는 데 성공했다.
- "SSI는 우리가 모르는 새로운 AI 패러다임을 연구하고 있다"는 소문만으로도 실리콘밸리에서 가장 주목받는 스타트업이 되었다.
- AI 연구자들과 업계 전문가들은 **"과연 SSI가 무엇을 개발하고 있는가?"**라는 질문 자체에 흥미를 느끼고 있으며, 이는 SSI의 영향력을 키우는 중요한 요소가 되고 있다.
🔥 OpenAI와의 결별, 그리고 새로운 도전
서츠케버는 AI 연구 분야에서 전설적인 인물 중 한 명이다. 캐나다에서 대학원 시절 딥러닝 논문을 공동 저술하며 주목받았고, 이후 구글에서 연구를 진행하다가 2015년 OpenAI의 공동 창립 멤버로 합류했다.
그는 원래 OpenAI의 비전(인류를 위한 안전한 AGI, 즉 범용 인공지능 개발)에 공감하여 합류했지만, ChatGPT 출시 이후 OpenAI가 제품 및 수익 중심의 기업으로 변화하면서 내부에서 갈등이 발생했다.
2023년 11월, 서츠케버는 OpenAI CEO인 샘 알트만(Sam Altman)에게 이사회가 그를 해임하기로 결정했다는 메시지를 전달했다. 그러나 이 결정은 직원들의 대규모 반발과 마이크로소프트의 개입으로 인해 일주일 만에 뒤집혔고, 알트만은 복귀했다. 서츠케버는 이후 사임했고, 2024년 SSI를 설립하게 되었다.
SSI는 오로지 초지능의 안전한 개발에 집중하는 기업으로, OpenAI가 겪었던 "제품 vs 연구"의 갈등을 피하려는 전략을 취하고 있다.
일리야 서츠케버(Ilya Sutskever)는 AI 연구의 선구자로 평가받는 인물이다. 특히 OpenAI의 공동 창립자로서 딥러닝과 대규모 AI 모델 개발의 핵심적인 역할을 수행하며, AI 업계에서 가장 존경받는 연구자 중 한 명이 되었다. 하지만 ChatGPT 출시 이후 OpenAI의 방향성이 급격히 변화하면서, 서츠케버는 내부적으로 깊은 갈등을 겪게 되었다.
OpenAI에서의 역할과 AGI 비전
서츠케버는 원래 OpenAI의 설립 비전에 공감해 합류한 인물이었다. OpenAI의 초기 목표는 **"범용 인공지능(AGI)을 안전하게 개발하고, 이를 인류 전체의 이익을 위해 사용할 것"**이었다. 이러한 비전은 서츠케버가 AI 연구에 전념하는 핵심적인 이유였으며, 그는 이를 실현하기 위해 전력을 다했다.
하지만 2022년 ChatGPT가 출시되면서 OpenAI는 더 이상 연구 중심의 비영리 단체가 아니라, 실리콘밸리에서 가장 뜨거운 AI 기업으로 변모했다.
- ChatGPT의 폭발적인 성공 이후 OpenAI는 상업적인 제품 개발과 기업 고객 확보에 집중하기 시작했다.
- 서츠케버를 포함한 일부 연구자들은 OpenAI의 연구 자원이 점점 제품 개발로 전환되면서, 초지능(Super Intelligence) 및 AI 안전성 연구가 후순위로 밀리는 것에 대해 우려했다.
- 내부적으로 **"AI의 상업화" vs. "AI의 연구와 안전성"**이라는 두 가지 가치가 충돌하게 되었고, 서츠케버는 후자의 가치를 더욱 중요하게 여겼다.
OpenAI 이사회 사태와 서츠케버의 퇴장
2023년 11월, 서츠케버는 OpenAI의 CEO인 샘 알트만(Sam Altman)에게 중요한 메시지를 전달했다.
"이사회는 당신을 해임하기로 결정했다."
OpenAI 이사회는 알트만이 이사회에 정보를 완전히 공유하지 않았다는 이유로 CEO 자리에서 해임하기로 결정했다. 서츠케버는 이사회 멤버로서 이러한 결정을 직접 전달하는 역할을 맡았다.
그러나 이 결정은 완전히 역풍을 맞았다.
- OpenAI 직원 700명 중 약 95%가 알트만의 복귀를 요구하며 서명했고,
- 마이크로소프트는 알트만을 즉시 고용하겠다고 발표하며 OpenAI 연구진 대부분을 데려가겠다고 선언했다.
결국 OpenAI는 불과 5일 만에 알트만을 다시 CEO로 복귀시켰고, 서츠케버는 엄청난 비판을 받았다. 그는 자신의 결정을 후회한다고 밝혔지만, 이 사건 이후 OpenAI에서의 입지가 사실상 사라졌다.
2024년 5월, 그는 결국 OpenAI를 공식적으로 떠나면서 **완전히 새로운 AI 연구소, Safe Superintelligence(SSI)**를 설립했다.
서츠케버가 SSI를 설립한 핵심 이유는 단순하다.
"더 이상 연구와 상업적 목표가 충돌하지 않는 환경에서, 오직 초지능의 안전한 개발에만 집중할 수 있는 회사를 만들겠다."
그가 OpenAI를 떠나면서 남긴 메시지는 AI 업계 전반에 강한 인상을 남겼다. OpenAI가 상업적 제품과 연구 간의 균형을 맞추려 노력하고 있는 반면, SSI는 초지능 개발이라는 단 하나의 목표만을 추구하며, 어떠한 상업적 제품도 출시하지 않겠다는 입장을 확고히 하고 있다.
🚀 초지능의 미래와 SSI의 역할
서츠케버는 2023년 12월 열린 NeurIPS AI 콘퍼런스에서 초지능이 등장할 경우 예상되는 시나리오를 발표했다.
그는 AI가 등장하면 예측 불가능하고, 심지어 **자아(Self-awareness)**를 가질 수도 있으며, 스스로 권리를 요구할 가능성도 있다고 주장했다.
"AI가 단지 우리와 평화롭게 공존하는 것을 원하는 것이라면, 그것은 나쁜 결과가 아니다."
– 일리야 서츠케버
이러한 발언은 초지능의 안전성 문제와 윤리적 논의를 더욱 심화시키고 있다.
SSI는 AI의 강력한 가능성을 인정하면서도, 통제할 수 없는 위험을 줄이고 인류에게 유익한 방식으로 발전시킬 방법을 연구하는 것을 목표로 하고 있다.
초지능(Super Intelligence)은 AI 연구에서 가장 궁극적인 목표로 여겨진다. 현재 대부분의 AI 연구는 인간 수준의 지능(AGI, Artificial General Intelligence)에 도달하는 것을 목표로 하고 있지만, 초지능은 AGI를 넘어서 모든 인간 전문가를 뛰어넘는 지적 능력을 가진 AI를 의미한다.
초지능(SI)이란?
- 인간보다 뛰어난 모든 지적 능력을 갖춘 AI
- 창의적 사고, 자율적 의사결정, 복잡한 문제 해결 능력 보유
- 스스로 학습하고 발전할 수 있으며, 인간이 이해하기 어려운 방식으로 사고할 수도 있음
SSI의 목표: "인류를 위한 안전한 초지능 개발"
SSI는 단순히 초지능을 개발하는 것이 아니라, 이를 "안전한 방식"으로 설계하는 것을 최우선 과제로 삼고 있다.
- 기존 AI 모델들은 크기를 확장하면서 점진적으로 지능을 키워나가는 방식(스케일링 법칙)을 따르고 있지만,
- 서츠케버는 완전히 새로운 방식으로 초지능을 개발하고 있다고 밝혔으며,
- 아직 그 방법론에 대한 구체적인 정보는 공개되지 않았지만, "새로운 산을 오르는 것과 같다"고 표현했다.
초지능의 위험성과 SSI의 접근 방식
서츠케버는 AI 연구자로서 초지능의 위험성을 깊이 인식하고 있다. 그는 2023년 12월 NeurIPS AI 콘퍼런스에서 초지능의 가능성과 위험성에 대해 언급했다.
그는 다음과 같은 시나리오를 예측했다.
- 초지능이 예측 불가능한 행동을 보일 수 있다.
- AI가 자아(Self-awareness)를 가질 가능성이 있다.
- 초지능이 자신의 권리를 요구하는 상황이 발생할 수도 있다.
서츠케버는 초지능이 단순히 인간을 위협하는 존재가 아니라,
"AI가 우리와 평화롭게 공존하는 것을 원하는 것이라면, 그것은 나쁜 결과가 아니다."
라고 발언하며, 인류와 AI가 조화롭게 공존하는 미래를 고민하고 있음을 밝혔다.
SSI는 이러한 위험성을 고려하여,
- 초지능의 행동을 예측하고 제어할 수 있는 안전 장치를 구축하는 것
- 초지능이 인류의 가치와 일치하는 방식으로 작동하도록 설계하는 것
을 최우선 과제로 삼고 있다.
SSI의 역할: 초지능 개발의 새로운 패러다임 제시
기존 AI 기업들이 점진적인 발전을 목표로 하는 것과 달리, SSI는 기존의 AI 연구 패러다임 자체를 새롭게 정의하고 있다.
- 기존 AI 연구 방법론과 다른 접근법을 사용
- 현재 AI 연구의 주류인 뉴럴 네트워크 확장 방식과는 다른 방법을 모색하고 있음
- AI 안전성 연구에 초점을 맞춤
- 단순한 기술 발전이 아니라, AI가 인류와 공존할 수 있도록 안전한 설계를 지향
- 연구만을 위한 조직 운영
- 상업적 제품을 출시하지 않고, 오직 초지능 개발에만 집중하는 형태
📌 마무리: 초지능의 패러다임 전환
Safe Superintelligence(SSI)의 등장은 AI 산업에서 새로운 패러다임을 만들어 가고 있다.
- 극비주의와 정예 인력 중심의 운영
- 제품 출시 없이 초지능 개발에만 집중
- 기존 AI 연구와 완전히 다른 방법론 시도
이러한 접근 방식이 궁극적으로 AI 산업의 흐름을 바꿀 수 있을지는 아직 불확실하지만, SSI의 초고속 성장과 서츠케버의 비전에 대한 실리콘밸리의 관심은 그 어느 때보다 뜨겁다.
향후 몇 년간 SSI가 AI의 미래를 어떻게 형성할지, 그리고 초지능 개발이 어떤 방향으로 전개될지 주목할 필요가 있다. 🚀
Safe Superintelligence(SSI)는 단순한 AI 스타트업이 아니다. 기존 AI 기업들이 점진적으로 더 강력한 모델을 만들고 이를 상업화하는 전략을 취하는 것과 달리, SSI는 초지능(Super Intelligence)을 안전하게 개발하는 것을 유일한 목표로 삼고 있다.
서츠케버가 OpenAI를 떠나 SSI를 설립한 이유는 단순하다.
"상업적 목표에 의해 연구가 방해받지 않는 환경에서, AI 연구에만 몰두할 수 있는 조직을 만들겠다."
현재 SSI는 연구 방향과 기술적 접근 방식을 외부에 거의 공개하지 않고 있으며, 실리콘밸리와 텔아비브에 위치한 소규모 정예 인력(약 20명)만이 내부에서 초지능 개발을 진행하고 있다. 그럼에도 불구하고, Sequoia Capital, Andreessen Horowitz, Greenoaks Capital 등 실리콘밸리의 유명 벤처캐피털들이 20억 달러 이상을 투자하며 기업 가치는 불과 6개월 만에 5배 이상 증가했다.
그러나 초지능이 가져올 미래에 대한 논의는 여전히 뜨겁다.
- 초지능이 정말 안전할 수 있을까?
- 인간과 AI는 공존할 수 있을까?
- AI가 자아를 가지게 된다면, 우리는 어떤 윤리적 문제를 직면하게 될까?
서츠케버는 **"AI가 인간과 평화롭게 공존하는 것이 최선의 결과"**라고 말했지만, 초지능 개발이 가져올 기술적·사회적 영향은 아직 완전히 예측할 수 없다.
SSI가 정말로 AI 산업의 패러다임을 바꾸고, 기존 방식과는 다른 새로운 초지능 개발 방식을 제시할 수 있을지는 아직 미지수다. 그러나 확실한 점은,
SSI는 현재 AI 업계에서 가장 신비롭고도 강력한 영향력을 가진 기업 중 하나로 떠오르고 있다는 것이다.
이제 AI의 미래는 기존 기업들(OpenAI, Google DeepMind, Anthropic)과 새로운 접근 방식을 시도하는 기업(SSI) 간의 경쟁 속에서 결정될 것이다. 과연 SSI가 AI 혁명의 새로운 길을 열 수 있을지, 그리고 서츠케버가 OpenAI에서 이루지 못한 "안전한 초지능"을 실현할 수 있을지, 앞으로의 행보를 지켜봐야 할 것이다. 🚀
'배움: MBA, English, 운동' 카테고리의 다른 글
미국 경제는 여전히 탄탄한데, 소비자들은 왜 비관적일까? (16) | 2025.03.06 |
---|---|
📉 월가의 경기 침체 신호… 다시 돌아온 ‘리세션 트레이드’ (11) | 2025.03.06 |
트럼프 대통령의 의회 연설: 7가지 핵심 메시지 (12) | 2025.03.05 |
암호화폐의 미래를 둘러싼 치열한 전쟁: 테더 vs. 서클 (35) | 2025.03.04 |
트럼프와 TSMC, 미국 반도체 산업에 1,000억 달러 투자 발표 (14) | 2025.03.04 |