처음엔 같은 문장을 보고 있었다.
“인류에게 이로운 AI를 만들자.”

하지만 몇 년 뒤, 한 사람은 회사를 상대로 소송을 냈고 회사는 “우리는 여전히 미션을 지키고 있다”고 맞섰다. 표면은 인물 갈등처럼 보이지만, 이 이야기의 중심은 사람보다 구조다.

Flux/영혼시리즈/images/soul-15-scene-01.png

1) 기: 이상은 같았지만 비용의 현실이 달라졌다

2015년 OpenAI 출범 당시의 문제의식은 뚜렷했다. 고도 AI의 혜택이 소수에 독점되지 않게 하자는 것. 그런데 생성형 AI 경쟁이 본격화되면서 질문이 바뀌었다. 이상을 지키려면 엄청난 컴퓨트와 자본이 필요했고, 그 자본을 끌어오려면 기존과 다른 조직 설계가 필요해졌다.

OpenAI가 2019년에 capped-profit 구조(OpenAI LP)를 도입한 배경도 여기 있다. 미션 통제를 유지하면서 투자 유치와 인재 확보를 동시에 하겠다는 시도였다. 문제는 같은 구조를 놓고도 해석이 완전히 갈린다는 점이었다. 누군가에겐 현실적 진화였고, 누군가에겐 출발선의 약속에서 멀어지는 신호였다.

2) 승: 균열의 본질은 ‘기술’이 아니라 ‘거버넌스’였다

이 갈등을 개인감정의 대결로 읽으면 편하다. 하지만 실제 쟁점은 누가 무엇을 통제하느냐다. OpenAI 쪽 논리는 안전한 AGI를 만들려면 초대형 인프라와 장기 투자가 필수라는 것이고, 머스크 쪽 논리는 초기의 공익·개방 약속이 영리화 과정에서 희석됐다는 것이다.

둘 다 공익을 말하지만, 공익을 운영체제로 옮기는 방식은 다르다. 결국 이 사건은 가치의 언어가 아니라, 가치를 집행하는 구조의 언어로 읽어야 한다.

3) 전: 돈의 크기보다 중요한 건 의사결정의 방향키

마이크로소프트와의 대형 파트너십이 확대되면서 많은 사람은 “돈이 커졌다”에 집중했다. 그런데 더 중요한 질문은 그 돈이 아니라 통제다. 누가 임계 의사결정을 내리는가, 안전 원칙이 출시 속도에 실제로 제동을 걸 수 있는가, 이해충돌이 생겼을 때 투명하게 처리되는가.

AI 시대의 기업가치는 모델 성능만으로 유지되지 않는다. 통제 구조가 신뢰를 만들지 못하면 기술 우위도 오래 버티기 어렵다. 그래서 머스크-OpenAI 갈등은 특정 회사의 드라마를 넘어, 산업 전체의 거울이 된다.

Flux/영혼시리즈/images/soul-15-scene-02.png

4) 결: 영혼은 영리화 때문에 팔리는 게 아니다

이 시리즈의 질문으로 돌아가면, 나는 이 사건을 단순한 배신으로 보지 않는다. 거대모델 개발에 비용이 드는 건 현실이고, 비용을 무시한 이상주의도 오래 지속되기 어렵다.

다만 경계선은 분명하다. 영혼을 파는 순간은 영리화 자체가 아니라, 영리화의 예외를 통제할 장치가 약해질 때다. 미션 문장은 선언으로는 쉽지만, 구조로 고정하지 않으면 압력이 올 때 가장 먼저 흔들린다.

그래서 AI 조직의 진짜 경쟁력은 “얼마나 크게 만들었나”보다 “무엇을 포기하지 않을지 제도화했나”에 가깝다. 비전은 말로 시작하지만, 신뢰는 설계로만 유지된다.


참고 / 사실 확인 메모

관련 시리즈

AI 활용 고지

이 글은 생성형 AI를 활용해 리서치 정리와 초안을 작성한 뒤, 사실관계와 표현을 검토·수정해 완성했습니다.