오픈AI 사건에서 꼭 해야 할 질문

오픈AI 사건에서 꼭 해야 할 질문

오픈AI 사건에서 꼭 해야 할 질문

오늘 북카페에서 한 권의 책을 만났다. ‘바로 오픈AI 사건에서 꼭 해야 할 질문’. 두께도 얇아, 처음엔 요새 인터넷에 많이 떠도는 ‘chatGPT에 꼭 입력해야 할 프롬프트’ 모음집인 줄 알았다. 하지만 읽어보니 그런 내용은 아니었다.

그보다는 오히려 가치관과 철학, 짧지만 인공지능 역사에 관한 고찰에 가까웠다.

오픈AI 사건이란?

오픈AI 사건에 대해 잠깐 짚어보자면 다음과 같다.

2023년 11월, 오픈AI의 CEO 샘 올트먼이 전격 해임된다. 이사회는 정확한 해임 사유를 밝히지 않았지만, “신뢰 상실”이라는 말만 남겼다. 하지만 놀랍게도 단 5일 만에 올트먼은 복귀했고, 그 과정에서 무려 770명 직원 중 700명이 그를 지지하며 회사를 떠나겠다는 서명을 한다. 이 사건은 단순한 경영진 교체를 넘어, 인공지능이라는 기술을 둘러싼 철학과 방향성의 충돌이었다.

나는 이 장면에서 문득 김옥균의 3일천하, 갑신정변을 떠올렸다. 그렇다고 올트먼이 김옥균이라는 건 아니다. 오픈AI 이사회가 갑작스러운 정변을 일으켰지만, 곧 무너졌고, 결국 주류의 힘이 다시 복귀한 것이다.

무엇이 쟁점이었나?

  • AI 안전 vs. 상업화: 인류를 위한 기술인가, 시장을 위한 기술인가?
  • 비영리 vs. 영리: 오픈AI는 비영리 조직으로 시작했지만, 실제로는 마이크로소프트와의 협업을 통해 강력한 상업화 경로를 밟고 있었다.
  • 거버넌스의 실패: 이사회는 철학적 명분을 가졌지만, 조직 운영에서는 신뢰를 잃었고 설득에도 실패했다.

부족 간의 충돌

올트먼은 이 거버넌스와 관련해 2개의 부족(tribe)가 공존하고 있다고 했다. 신선한 시각으로, 사건의 본질을 잘 표현하고 있다. ‘파벌’이라는 말로는 그 충돌을 그만큼 잘 나타내지 못했을 것이다.

파벌이란 말은 그 집단이 이익을 위해 합친 임시적인 모임이란 뉘앙스가 있다. 잠시 잠깐 이합집산을 할 뿐, 본질은 같은 것이다. 하지만 부족이라는 표현에는 그들이 정체성이나 가치관 같은 근본부터 다른 집단이라는 걸 나타낸다. 역사 시간에 배웠던 부족 연맹체를 자연스럽게 떠올리게 된다.

오픈AI의 두 부족은 AI 안전과 윤리를 우선시하는 이상주의 부족과 기술 혁신과 상업화를 중시하는 현실주의 부족이었다. 그들은 목적만 다른 것이 아니라 세계를 보는 방식부터 다르다. 충돌이 반복되는 것은 그 때문이다. 이것은 비단 오픈 AI의 문제만은 아니다.

AI 안전과 윤리를 우선시하는 이상주의 부족

  • 기술의 속도를 늦추더라도 인류 전체의 이익을 먼저 생각해야 한다
  • 비영리 정신, 오픈소스, 책임성, 공공성 중시

기술 혁신과 상업화를 중시하는 현실주의 부족

  • 기회를 먼저 선점해야 한다
  • 수익과 시장 점유율을 통해 영향력을 넓혀야 한다
  • 투자자, 대기업과의 협업 중시

실제로 올트먼은 기술자가 아닌 경영자 출신이다. 그가 이상주의가 아니라 영리를 목적으로 하는 현실주의 부족이었던 것은 하나도 이상하지 않다. 그는 스탠퍼드 대학에서 컴퓨터과학을 전공했지만, 실제 코딩이나 연구 중심 경력은 없었다. 활동 경력만 봐도 창업, 조직 경영, 창업가와 투자자 연결에 집중되어 있다.

한마디로 그는 기술을 이해하는 경영자, 기술자의 언어를 아는 투자자, 시장과 권력을 감지하고 움직이는 전략가라고 할 수 있다.

하지만 이해가 되지 않았던 것은 770명의 직원 중 70명을 뺀 대다수가 올트먼의 편에 선 것이었다. OpenAI 직원 대부분은 분명 AI 연구자, 엔지니어, 과학자 등 기술자 출신이었는데, 이사회가 아닌 올트먼을 지지한 것은 의외였다. 부족 내부에 반란이 일어난 셈이다.

그들은 이상과 윤리보다는 실리와 살길을 택했다. 기술자들이 윤리를 버렸다는 뜻은 아니다. 수익 상한선을 100배로 한다고 했을 뿐, 아직 실제로 비윤리적인 일을 벌인 건 아니니 말이다.

나라면 어느 쪽에 섰을까? 그리고 나중에 70명은 어떤 선택을 했을까?

비영리의 탈을 쓴 영리

초기 오픈AI는 ‘수익 상한선’을 두었다. 처음엔 10배, 이후에는 100배. 하지만 그 수치 자체가 이미 일반적인 기업을 넘어서 있었다. 스타트업도, 유니콘도 이 정도 수익률을 약속하진 않는다.

게다가 그 이름은 ‘선한 인공지능’. 그런데 선함을 강조하는 순간, 나는 의심했다. 사실 선한 사람은 선함을 따로 말하지 않는다. 악한 것에까지 미처 생각을 못 하니까. 하지만 악한 사람은 악을 가리기 위해 선함을 이용할 줄 아는 법.

이후 오픈AI는 구조를 변경하고, 수익 상한선을 폐지했다. 완전한 영리화의 길을 선언한 셈이다.

플라이 휠, 통제는 가능한가

그들이 결국 인공지능에 있어서 수익상한선을 폐지하고 영리로 돌아서는 선택을 한 이유는 무엇일까? 첫째, 경쟁사들의 출현 때문이다. 구글, 메타, 앤스로픽, 머스크의 xAI까지—AI는 한순간에 ‘지금 아니면 늦는다’는 시장이 되어버렸다. 상업화 압력은 점점 거세질 수밖에 없었다.

인공지능(뿐만 아니라 유전공학을 비롯한 거의 대부분의 과학)은 새로운 전기를 맞고 있다. 플라이 휠이 소용돌이처럼 돌고 있는 것이다. 돌을 굴릴 때, 처음엔 힘이 들지만 어느 순간부터 점점 힘이 들지 않게 되고, 나중엔 힘을 들이지 않아도 저절로 돌아가게 된다. 관성 때문이다.

한 번 돌기 시작한 기술은 멈추지 않는다. 속도는 점점 빨라지고, 방향을 제어하는 건 점점 어려워진다. 인간이 이 플라이 휠을 통제할 수 있을까?

사람은 자기 유익을 추구하기 마련이다. 이익이 다가오면 자기가 전에 세웠던 기준을 조금씩 뒤로 물리기도 한다. 우리는 그 안에서 뜨겁다 느껴졌을 땐 이미 늦어버린 개구리처럼 살아가는 건 아닐까?

마치며

이 오픈 AI 사건은 단순한 CEO 해임극이 아니었다. 그건 시대가 기술을 통해 무엇을 선택하고 있는가를 묻는, 문명 전환기의 징후였다.

우리는 돌아올 수 없는 강을 건넜을지도 모른다. 그래서 나는, 그 강을 건너는 지금— 속도보다 방향을 선택할 수 있는 사람이고 싶다.

나는 이 책을 북카페에서 종이책으로 읽었지만, 집에 돌아와 글을 쓰며 살펴보니 종이책 대신 전자책만 보였다. 구글북스에도 나와 있지 않아 대신 리디북스와 네이버 시리즈의 링크를 소개한다. 두 군데 모두 전자책을 부담 없이 읽을 수 있다. 관심 있는 분은 아래 링크를 참고해보시길.

함께 읽으면 좋은 글

이 사건에 대해 어떻게 생각하시나요? 댓글로 의견을 나눠주시면 기쁘게 읽겠습니다.

댓글 남기기