오픈AI 샘 알트먼이 해고된 진짜 이유 : 구글 출신 AI 대부가 풀어주는 업계 썰

출처: Full interview: “Godfather of AI” shares prediction for future of AI, issues warnings

오픈AI 샘 알트먼 해고 사태의 진실 :

구글 출신 AI 대부가 풀어주는 업계 썰

오픈AI 샘 알트먼 해고 사건, 그 뒷이야기 

인터뷰어: 자, 이번엔 가장 어려운 질문을 드릴게요. 혹시 아직도 구글 주식을 많이 가지고 계신가요?

제프리 힌턴 : 음, 구글 주식은 조금 가지고 있어요. 대부분의 제 자산은 더 이상 구글 주식에 들어 있진 않아요. 그래도 어느 정도는 가지고 있죠. 그래서 구글 주가가 오르면 기분이 좋고, 떨어지면 기분이 나빠요. 뭐랄까… 저도 이해관계자이긴 해요.

하지만 만약 강력한 AI 규제가 생겨서 구글의 기업 가치가 줄어든다 해도, 그 규제가 인류의 생존 확률을 높이는 데 도움이 된다면, 저는 기꺼이 그걸 받아들일 거예요.

인터뷰어: 오픈AI 얘기로 넘어가 볼게요. 최근에 핵심 인재들이 대거 떠났잖아요. 그걸 어떻게 보셨나요?

제프리 힌턴 : 오픈AI 는 애초에 초지능을 안전하게 개발하자는 취지로 설립됐어요. 그런데 시간이 흐르면서, 안전이라는 가치는 점점 뒤로 밀리게 됐죠.

그들은 전체 컴퓨팅 자원의 일정 비율을 안전 연구에 사용하겠다고 약속했었어요. 하지만 나중에는 그 약속도 파기했죠. 지금은 공개 기업으로 전환하려고 애쓰고 있어요.

이제 그들은 더 이상 비영리 조직이 아니에요. 제 눈에는 거의 모든 안전에 대한 약속을 포기한 상태로 보여요. 그리고 정말 훌륭한 연구자들이 많이 떠났어요. 그중엔 제 제자였던 일리아 수츠케버(Ilia Sutskever)도 포함돼요. 그는 GPT-2, 그리고 이후 GPT-4 개발에 아주 큰 역할을 했던 사람 중 한 명이에요.

인터뷰어: 그가 떠나기 전에 혹시 직접 얘기 나눠보셨나요?

제프리 힌턴 : 아니요. 일리아는 굉장히 신중한 사람이에요. 오픈AI 와 관련된 기밀은 절대 이야기하지 않았어요.

인터뷰어: 그가 샘 알트만을 해고했던 사건은요? 그때는 좀 놀라셨나요?

제프리 힌턴 : 저는 솔직히 그 결정을 꽤 자랑스럽게 생각했어요. 물론 굉장히 순진한 결정이었긴 했지만요.

제프리 힌턴 : 문제는 그 시점이었어요. 오픈AI 가 새로운 펀딩 라운드를 앞두고 있었거든요. 그 라운드가 완료되면, 직원들은 자신들이 보유한 오픈AI 의 가상의 주식(지분)을 실제 현금으로 바꿀 수 있게 될 상황이었어요.

인터뷰어: 그러니까 말하자면, ‘종이돈’을 ‘현금’으로 바꾸게 되는 거였군요?

제프리 힌턴 : 맞아요. 그 종이돈은, 오픈AI 가 망하면 아무것도 아니게 될 돈이죠. 그런데 그 타이밍에 사내 쿠데타(insurrection)를 일으킨 거예요. 펀딩 라운드가 끝나면, 직원들 중 상당수가 수백만 달러씩 현금화할 수 있었을 거예요. 어쩌면 그보다 더 많이 받을 수도 있었겠죠.

그런 시점에 CEO를 해고한 거예요. 직원들이 엄청나게 강하게 샘 알트만을 지지하고 나선 이유는, 그가 좋아서가 아니라… 자기 돈 때문이었을 가능성도 커요.

인터뷰어: 일리아가 그런 판단 실수를 한 건 놀라운 일이었나요? 아니면 원래 그런 성격의 사람이라고 보셨나요?

제프리 힌턴 : 일리아는 정말 뛰어난 사람이에요. 윤리 의식도 강하고, 기술적으로도 훌륭하죠. 하지만 사람을 설득하거나 조율하는 데는 조금 서툰 면이 있어요.

인터뷰어: 이건 약간 뜬금없는 질문일 수 있지만, 지금 AI 업계에선 비밀 유지 계약(NDA) 문화가 굉장히 강하다는 이야기가 많아요. 그래서 내부자가 실제로 무슨 생각을 하고 있는지 알 수가 없죠. 이게 AI에 대한 공적 논의에 방해가 된다고 보시나요?

제프리 힌턴 : 글쎄요, 제가 직접 겪은 걸 말씀드리면…

제가 구글을 떠날 때, 저도 무수히 많은 NDA에 서명했어요. 사실 구글에 입사할 때부터 서명했으니까요. 그런데 그게 다 무슨 내용인지 지금은 기억도 잘 안 나요.

인터뷰어: 그럼, 본인이 뭔가를 말할 수 없게 됐다는 느낌, ‘입막음’당했다는 느낌은 없으세요?

제프리 힌턴 : 아니요, 저는 그런 느낌은 없어요.

인터뷰어: 하지만 이런 NDA들이 결국 대중이 AI 업계에서 무슨 일이 벌어지고 있는지 이해하기 어렵게 만든다고 생각하시진 않나요?

제프리 힌턴 : 솔직히 잘 모르겠어요. 그런 NDA 때문에 정말로 말 못하고 있는 사람들이 누군지 알 수 있어야 그걸 판단할 수 있겠죠.

인터뷰어: 그렇다면 당신은 이 이슈를 그렇게까지 큰 문제로 보진 않으시는 거군요.

제프리 힌턴 : 맞아요. NDA 자체는 그렇게 큰 문제는 아닌 것 같아요. 하지만 오픈AI 가 했던 일 중 정말 문제였던 건, 직원들에게 이미 받은 주식을 몰수할 수 있다는 내용이 있다는 의혹이 제기됐던 거예요. 그건 굉장히 심각한 문제라고 생각해요. 그리고 그게 공개되자, 오픈AI 는 빠르게 입장을 철회했어요. 공식적으로는 “우리가 그런 조항을 없앴다”고 발표했지만, 실제 계약서를 공개하진 않았어요. 그래서 진짜로 철회했는지는 확실하지 않아요.

일론 머스크가 위험한 인물인 이유

인터뷰어: 그렇다면 이런 상황에서 실제 규제가 생길 수 있을까요? 아니면 결국 무산될 거라고 보세요?

제프리 힌턴 : 그건 우리가 어떤 정부를 갖게 되느냐에 아주 많이 달려 있어요.

지금 미국 정부 아래에서는, 규제가 생기기 어려울 거라고 생각해요. 왜냐하면 대형 AI 기업들이 트럼프와 손잡았기 때문이에요. 상황이 별로 좋지 않죠.

인터뷰어: 그런데 아이러니하게도, 일론 머스크는 AI 안전에 대해 오래전부터 걱정해온 인물이잖아요. 그는 지금 트럼프와도 가까운 관계고요.

제프리 힌턴 : 맞아요. 머스크는 정말 이상한 혼합체 같은 사람이에요.

그는 화성에 가자는 등의 황당한 생각도 가지고 있지만, 동시에 전기차를 보급했고, 우크라이나에 스타링크 통신망을 제공하기도 했죠. 굉장히 훌륭한 일들이기도 해요.

인터뷰어: 화성 이주는 왜 말도 안 된다고 보세요? 불가능해서요? 아니면 우선순위가 아니라고 보세요?

제프리 힌턴 : 아무리 지구가 나빠져도, 지구는 여전히 화성보다 훨씬 살기 좋은 곳이에요. 핵전쟁이 일어난다고 해도 지구가 화성보다 살기 좋아요. 화성은 그 자체로도 너무나 비인간적인 환경이에요.

제프리 힌턴 : 지금 머스크는 전보다도 더 불안정한 모습이에요. 케타민을 복용하고 있다는 얘기도 있고요. 그래서 최근 행보는 좀 이상한 결정들이 많은 것 같아요.

인터뷰어: 그렇다면 머스크가 AI 안전에 관심 있다고 해서, 그가 실제로 AI를 안전하게 만들 거라고는 보지 않으시는 거군요?

제프리 힌턴 : 네. 저는 머스크가 AI를 안전하게 다룰 거라고 기대하지 않아요. 그가 하는 행동들을 보면, 지금 당장도 안전하지 않은 일을 하고 있거든요. 예를 들어, 그들은 자신들의 대형 언어모델의 ‘가중치(weights)’를 공개하고 있어요. 이건 정말 말도 안 되는 일이에요.

인터뷰어: 왜 그렇게 보시나요?

제프리 힌턴 : 이유는 명확해요. 가중치를 공개하는 순간, 이 기술을 아무나 사용할 수 있게 되거든요.

핵무기를 예로 들어볼게요. 지금 몇몇 나라만 핵무기를 보유한 이유는 핵연료(핵분열성 물질)를 구하기가 매우 어렵기 때문이에요. 그런데 만약 그 핵연료를 아마존에서 살 수 있게 된다면, 전 세계 모든 나라가 핵무기를 가질 수 있겠죠?

AI에서도 ‘가중치’는 핵연료에 해당하는 존재예요. 대형 모델을 훈련시키는 데 수억 달러가 들어가요. 단순히 마지막 훈련 단계가 아니라, 그 이전까지의 연구와 실험까지 다 포함해서요.

그런데 이 ‘가중치’를 공개하면, 사이버 범죄자들이나 이상한 집단들도 쉽게 모델을 미세 조정해서 악용할 수 있어요. 몇 백만 달러만 있어도 가능하죠. 이건 정말 위험한 행동이에요. 그런데 사람들은 이걸 마치 ‘오픈소스’ 정신처럼 포장하고 있어요. 하지만 이건 진짜 오픈소스랑은 완전히 달라요.

오픈소스 소프트웨어는 코드를 공개하고, 누군가가 “어? 이 줄에 버그가 있네” 하고 고쳐주죠. 그런데 AI의 ‘가중치’를 공개해도, 아무도 그걸 보면서 “이 숫자 좀 이상하네”라고 하지 않아요. 그냥 기반 모델을 그대로 가져다 악용할 뿐이에요.

인터뷰어: 하지만 반대쪽에서는 이런 논리를 펴요. 당신의 동료였던 Yann LeCun 같은 사람들은 이렇게 말하죠. “가중치를 소수 기업만 갖는 것보다는 모두가 갖는 게 낫다. 그렇지 않으면 소수 기업이 전 인류를 지배하게 된다.”

제프리 힌턴 : 저는 차라리 소수 기업이 통제하는 편이 낫다고 생각해요. 이걸 핵무기와 비교해 보세요. 전 세계가 핵무기를 다 갖는 것보다, 일부 국가만 가지고 있는 편이 훨씬 낫지 않나요?

인터뷰어: 지금 당신의 얘기를 들어보면, 현재 거의 모든 주요 AI 기업들이 사회의 이익보다는 이윤을 우선시한다는 생각이 드네요. 그런 의미인가요?

제프리 힌턴 : 네. 기업이라는 건 기본적으로 주주 이익 극대화를 위해 존재해요. 법적으로 그렇게 요구되는 건 아닐지 몰라도, 실질적으로 그렇게 작동해요.

인터뷰어: 그렇다면 지금이라도 당신이 일할 수 있다면, 어느 기업에서 일하고 싶으세요?

제프리 힌턴 : 예전에는 구글에서 일하는 걸 자랑스럽게 생각했어요. 구글은 한때 굉장히 책임감 있는 기업이었어요. 처음 대형 챗봇을 개발했을 때도, 공개하지 않았거든요. 하지만 지금은… 예전 같진 않아요. 그래도 다른 회사들보단 낫죠.

인터뷰어: 구글이 ‘군사용 AI는 지원하지 않겠다’던 약속을 깬 데 대해 실망하셨나요?

제프리 힌턴 : 정말 많이 실망했죠. 특히 세르게이 브린이 군사용 AI를 싫어하는 걸 알았기 때문에 더 실망했어요.

인터뷰어: 왜 그들이 그런 결정을 내렸다고 보세요?

제프리 힌턴 : 내부 사정을 잘 모르기 때문에 정확히는 말 못하겠어요. 하지만 한 가지 추측은 가능해요. 아마도 그들은 지금의 미국 행정부에 잘 보이기 위해, 미국 정부의 무기 개발에 협력하지 않으면 불이익을 받을까봐 그렇게 결정했을 수도 있어요.

.

.

.

AI 시대, 가장 확실한 대비를 위해
지금 바로 배울 수 있는 [ AI ] 관련 강의가 준비되어있어요.

지금 바로 아래에서 관심을 끄는 강의를 눌러 확인해보세요.

2025 AI시대 일잘러를 위한
비현실적인 700가지 ChatGPT 활용 바이블
AI로 코딩하는 시대! 비개발자도 할 수 있는
Cursor.AI 실전 웹 제작

  가장 먼저 만나는 Google Gemini

초격차 패키지:15개 프로젝트로 실무까지
끝내는 Dart & Flutter 앱 개발

Facebook Comments