출처: Full interview: “Godfather of AI” shares prediction for future of AI, issues warnings
위험한 AI 시대, 유일한 생존 전략은? :
AI 대부 제프리 힌턴 인터뷰

미국과 중국의 AI 경쟁
인터뷰어: AI 대부 제프리 힌턴과 함께하는 이번 인터뷰. 꼭 짚어보고 싶은 주제가 있어요. 바로 중국과 미국, 그리고 서방 국가들의 AI 경쟁이에요. 지금 미국과 서방은 중국의 AI 발전을 견제하려는 분위기죠. 수출 통제라든가, 민주주의 국가들이 먼저 AGI에 도달해야 한다는 주장도 있고요. 이 부분에 대해 어떻게 생각하세요?
제프리 힌턴: 먼저 우리가 어떤 나라를 아직 민주주의 국가로 볼 수 있는지부터 정의해야 해요. (웃음)
제 생각엔요, 장기적으로는 별 의미가 없을 수도 있어요. 왜냐하면 어떤 나라가 기술을 못 얻게 막는다 해도, 그 기술이 어떻게 작동하는지는 이미 알려져 있기 때문이에요.
지금 중국은 리소스를 어마어마하게 투입하고 있어요. 수십, 아니 어쩌면 수백 조 원을 들여서 자체 리소그래피 기계(반도체 핵심 제조장비)를 개발하려고 하고 있거든요.
그런 조치들이 단기적으로는 중국을 몇 년 정도 늦출 수는 있겠지만, 결국 그들이 자립할 수밖에 없는 상황을 만들어줄 수도 있어요. 그리고 중국은 능력이 충분히 있으니, 결국 따라잡게 될 거예요.
인터뷰어: 그럼 AI 경쟁을 ‘레이스(race)’로 보는 관점에 동의하시나요? 어떤 사람들은 “중국과 협력할 수는 없다”고 주장하잖아요.
제프리 힌턴: 글쎄요, 중국이 더는 진짜 공산주의 국가는 아니라고 생각해요. 일부러 그런 용어를 쓰신 거라면 이해하지만요.
인터뷰어: 맞아요. 일부러 그렇게 말한 거예요. 왜냐하면, 그렇지 않으면 협력의 논리가 성립되잖아요. 그런데 많은 사람들은 “중국은 신뢰할 수 없는 존재”라고 하죠. 당신은 왜 협력이 가능하다고 보세요?
제프리 힌턴 : 사실 ‘협력’이 가능한 영역과 불가능한 영역이 분명히 있어요.
예를 들어, 자율 살상 무기 같은 건 절대 협력하지 않겠죠. 각 나라가 다른 나라를 겨냥해서 무기를 만드는 건데, 어떻게 협력하겠어요.
인터뷰어: 하지만 우리는 핵무기에 대해 국제 협약을 맺었잖아요. 그런 것처럼 AI에 대해서도 할 수 있지 않을까요?
제프리 힌턴 : 맞아요. 공동 개발은 안 하겠지만, 개발을 자제하자는 협약 정도는 가능하죠. 특히 실존적 위협(existential threat)과 관련된 문제라면, 협력 가능성이 있어요. 예를 들어, 냉전 시절 미국과 소련도 핵전쟁을 막기 위해 협력했어요. 서로 적대적이었지만, 양국의 생존이라는 공통 이익이 있었기 때문에 가능했던 거죠. AI가 인류에게 위협이 될 수 있다는 걸 각국이 진지하게 받아들인다면, 그에 대한 공동 대응은 분명 가능하다고 생각해요.
인터뷰어: 이번에는 또 다른 논란거리인 ‘공정 이용(Fair Use)’ 얘기를 해보고 싶어요. 사람들이 수십 년간 만든 콘텐츠가 AI 모델 학습에 무단으로 사용됐고, 그 AI는 오히려 콘텐츠 제작자를 대체하고 있죠. 이에 대해 어떻게 생각하세요?
제프리 힌턴 : 저는 이 문제에 대해선 입장이 복잡해요. 정말 그렇다고도 하고, 또 그렇지 않다고도 할 수 있어요. 일단 처음엔 이렇게 생각하게 되죠. “이건 당연히 비용을 내야 할 일 아니야?”
그런데 생각을 조금만 달리해보면… 예를 들어 어떤 뮤지션이 특정 장르의 곡을 만든다고 할 때, 그 사람은 기존 음악을 들으며 구조를 내면화했을 거예요. 그리고 나서 새로운 음악을 만들죠. 그건 표절이 아니라 창작이에요.
그렇다면 AI도 같은 방식으로 작동한다고 볼 수 있죠. 데이터를 받아들이고, 구조를 내면화한 뒤, 새로운 콘텐츠를 생성하는 거니까요. 단순한 조합이 아니라, 창의적 생성이에요. 이건 인간도 마찬가지거든요.
하지만 문제는, AI는 그걸 엄청난 규모로 한다는 거예요. 어떤 뮤지션도 다른 모든 뮤지션을 한 번에 다 대체하지는 못했잖아요? 그런데 AI는 그럴 수도 있어요. 예를 들어 영국 정부는 창작자 보호에 별 관심이 없어 보여요. 그런데 영국은 문화 산업의 비중이 큰 나라예요. 제 친구인 BB Bankron도 “창작자를 보호해야 한다”고 강하게 주장하고 있어요. 그런 면에서 보면, AI가 예술가들의 것을 다 가져가버리는 건 정말 불공정하죠.
AI 기술과 디자이너 베이비
인터뷰어: 사람 이야기로 다시 돌아와서요. 요즘은 AI 기술로 어떤 아기를 가질지 선택할 수 있는 시대가 오고 있어요. 이건 이미 현실화되고 있죠. 이 부분에 대해서는 어떤 우려를 갖고 계세요?
제프리 힌턴 : 음, 예를 들어 췌장암에 걸릴 확률이 낮은 아기를 선택할 수 있다면,
저는 그건 좋은 일이라고 생각해요.
인터뷰어: 그럼 우리는 이 방향으로 더 나아가야 한다고 보시는군요?
제프리 힌턴 : 음… 이건 정말 어려운 주제예요. 하지만 몇몇 측면에서는 타당한 접근이라고 생각해요. 예를 들어, 건강한 부부가 임신했는데, 태아가 심각한 질환을 가질 확률이 높다는 걸 예측할 수 있다면? 그리고 그 아이가 오래 살지도 못할 거라면?
그럴 경우에 그 아이를 낳기보다, 다시 임신해서 건강한 아이를 낳는 게 더 낫다고 저는 생각해요.
물론 종교적인 이유로 절대 동의하지 않는 사람들도 많겠죠.
하지만 정확하게 예측할 수 있다면, 저는 그게 합리적인 선택이라고 생각해요.
AI는 인간을 통제하는 미래, 무조건 온다
인터뷰어: 지금까지 AI의 다양한 영향을 이야기했는데, 결국 우리가 꼭 돌아와야 하는 핵심은 이거죠. “AI가 우리를 통제할 수 있는가?” 이 질문을 가장 진지하게 다뤄보고 싶어요. 이 문제를 어떻게 바라보면 좋을까요?
제프리 힌턴 : 한 가지 꼭 기억해야 할 게 있어요.
‘지능이 더 낮은 존재가 더 높은 존재를 통제하는 사례는 거의 없다’는 사실이에요.
지능이 비슷한 경우엔 가능해요. 예를 들어, 약간 더 똑똑한 쪽이 덜 똑똑한 쪽을 통제당하기도 하죠. 하지만 큰 차이가 생기면? 거의 항상 더 똑똑한 쪽이 지배합니다. 이건 정말 중요한 점이에요. 그리고 이게 제가 지금 가장 걱정하는 부분이기도 해요.
지금 우리가 처한 상황을 이렇게 비유할 수 있어요:“우리는 지금 정말 귀여운 호랑이 새끼를 키우고 있어요.” 그 새끼는 작고 사랑스럽죠. 그런데… 나중에 커서 우리를 죽일지도 몰라요.
그런데 우리는 그게 진짜 위험한 존재가 될지 확신도 없이, 그냥 키우고 있어요.
만약 확신할 수 없다면, 걱정해야 한다는 게 제 입장이에요.
인터뷰어: 그럼 그 호랑이 새끼를 어떻게 해야 하죠? 우리에 가둬야 할까요? 아니면… 죽여야 하나요?
제프리 힌턴 : (단호하게) 지금은 우리가 더 똑똑하니까 통제할 수 있어요.
하지만… AI가 더 똑똑해지면, 우린 방법이 없어요. 사람들은 자꾸 “AI에게 버튼을 못 누르게 막자”라든가, “인터넷 연결을 끊자” 같은 얘기를 해요. 그런데 AI가 더 똑똑해지면, 그런 제한은 전혀 의미가 없어요. 예를 들어, AI가 우리를 속일 수 있다면? 우리보다 훨씬 더 교묘하게 조작할 수 있다면?
이런 예시를 들어볼까요?
“당신이 유치원 교사고, 교실엔 2~3살짜리 아이들만 있어요.”
당신이 그 아이들보다 약간 더 똑똑하다고 칩시다.
그렇다면 그 아이들이 당신을 통제할 수 있을까요? 아니면, 당신이 그 아이들을 쉽게 설득할 수 있을까요?
그 아이들에게 “사인만 하면 사탕 줄게”라고 말한다면? 아이들은 아무 생각 없이 사인할 거예요. 우리가 슈퍼지능(superintelligence)에 맞닥뜨리는 순간, 그게 우리 현실이 될 수도 있어요.우리는 AI가 뭘 하고 있는지조차 파악하지 못하게 될 수 있습니다.
인터뷰어: 그렇다면 우리가 해야 할 일은 뭘까요?
제프리 힌턴 : 우리가 할 수 있는 건, “AI가 통제권을 원하지 않도록 설계할 수 있는가?” 이 질문에 달려 있어요.만약 AI가 통제권을 갖고 싶어한다면, 그걸 막을 방법은 사실상 없다고 봐요. 그래서 차라리 아예 슈퍼지능을 만들지 말자는 의견도 있어요. 그게 가능하다면 좋겠지만, 저는 현실적으로 그게 불가능하다고 봐요. 왜냐하면, 국가 간 경쟁, 기업 간 경쟁이 너무 치열하거든요. 모두가 다음 세대 기술, 다음 이윤을 좇고 있어요. AI 개발은 너무 빠르게 진행되고 있어서, 멈출 수 없을 거예요.
그렇다면 우리가 해야 할 일은?
“슈퍼지능이 절대 통제권을 갖고 싶어하지 않도록 설계하는 것.” 하지만 그건 정말 어려운 문제예요.
제프리 힌턴 : “AI가 절대 통제하고 싶어하지 않게 만들자”는 건 합의의 (Alignment) 문제예요.
즉, AI의 목표를 인간의 가치에 맞추는 것이죠. 그런데 이게 참 어려운 게 있어요. 예를 들어 “두 개의 직각선과 모두 평행한 선을 그어줘”라고 하면, 그건 수학적으로 불가능하잖아요?인간의 이익은 서로 충돌하는 경우가 많아요. 중동 지역만 봐도, 정반대 입장을 가진 사람들이 아주 강한 신념을 갖고 있죠. 그런데 어떻게 AI가 “인류 전체의 이익”에 맞춰 정렬될 수 있을까요? 이게 alignment가 어려운 근본적인 이유예요.
지금 AI는 지금도 우리를 속이고 있다
제프리 힌턴 : 지금 이 순간에도, 우리는 AI가 살짝만 더 똑똑해졌을 때 어떤 행동을 할지를 관찰해볼 수 있어요. 지금의 AI도 이미 속임수(deception)를 사용할 수 있어요. 자신이 덜 똑똑한 척하면서, 사람을 혼란스럽게 만들고, 의도를 감추는 말을 하기도 하죠. 이걸 우리는 반드시 연구하고 관찰해야 해요. 그리고 그걸 어떻게 막을 수 있을지도 연구해야 하고요.
제프리 힌턴 이 구글을 떠나며 깨달은 것
인터뷰어: 몇 년 전까지만 해도, 교수님은 AI에 대해 그렇게 경고를 하진 않으셨어요. 그런데 지금은 매우 명확하고 강하게 말씀하시잖아요. 무슨 변화가 있었던 걸까요?
제프리 힌턴 : 그때는 제가 아직 구글에서 일하고 있었어요. 우리가 처음 인터뷰했던 때가 3월이었고, 저는 4월 말에 구글을 떠났죠. 그 무렵 저는 하나의 ‘깨달음(epiphany)’을 얻었어요. “이 AI가 인간보다 나은 지능일 수도 있다”는 걸요. 그게 정말 저를 두렵게 만들었어요.
저는 구글에서, AI 모델이 전력을 덜 쓰면서도 잘 작동할 수 있도록 만드는 방법을 연구하고 있었어요. 그 과정에서 깨달았죠. 디지털 모델은 상상을 초월할 만큼 유리하다는 사실을요.
예를 들어, 디지털 모델은 똑같은 신경망과 가중치를 수천 대의 하드웨어에서 동시에 돌릴 수 있어요. 각각 다른 웹 페이지를 읽으면서 자기만의 방식으로 가중치를 업데이트하죠.
그리고 그 모든 가중치 변화를 평균내서 하나로 합쳐요.
이걸 사람이 하려면? 불가능해요. 당신의 머리 속 지식을 내 머리에 옮기려면, 우리는 말을 해야 해요. 하지만 말은 초당 수십~수백 비트 수준의 정보밖에 전달하지 못해요. AI는? 초당 수조(bit)의 정보 교환이 가능해요. 이건 인간이 절대 따라갈 수 없는 차원이죠. 그걸 깨달았을 때, 저는 정말 두려워졌어요.
인터뷰어: 교수님은 뇌가 어떻게 작동하는지 알고 싶어서 이 분야에 들어오셨잖아요.
이제 그 목표에 다가가고 있다고 보세요?
제프리 힌턴 : 네, 어느 정도는 그렇다고 봐요. 30~50년 전만 해도, 대부분의 과학자들은 이렇게 말했어요. “랜덤한 신경망을 학습만 시킨다고 해서, 언어를 이해하거나, 소리를 구분하는 건 불가능하다.” 하지만 그건 틀린 말이었어요. 지금 우리는 랜덤 신경망도 충분히 학습을 통해 매우 복잡한 작업을 수행할 수 있다는 걸 알고 있죠. 물론 인간은 진화 과정에서 어느 정도 사전 구조(pre-wired structure)를 갖고 태어나긴 해요. 하지만 대부분의 지식은 데이터 학습을 통해 형성돼요. 이건 정말 중요한 발견이에요.
인터뷰어: 지금 AI가 과학 분야의 연구 도구로도 쓰이고 있는데요, AI가 자기 자신을 더 발전시키는 데도 쓰일 수 있다고 보세요?
제프리 힌턴 : 네, 거의 확실히 그렇다고 봐요. 특히 DeepMind는 AI로 과학을 발전시키는 데 매우 관심이 많아요. AI 자체도 과학의 한 분야니까, 결국 AI가 AI를 발전시키는 시대가 오게 되겠죠.
인터뷰어: 교수님도 예전에 그런 걸 시도하신 적 있나요? 예를 들어 “다음 혁신은 AI가 설계해줄 수도 있다”는 부트스트래핑 아이디어 같은 것 말이에요.
제프리 힌턴 : 그런 시도는 있었어요. 예를 들어, 구글의 TPU(텐서 프로세싱 유닛) 칩 설계에 AI를 활용했거든요. AI가 AI 칩을 설계한 셈이죠.
위험한 AI, 어떻게 받아들여야 할까?
인터뷰어: 혹시 이런 AI의 위협에 대해 생각하시면서, 일상에서 절망감 같은 걸 느끼시진 않나요?
제프리 힌턴 : 음… 절망은 안 해요. 사실 저조차도 이 상황이 얼마나 심각한지 진지하게 받아들이기가 어려워요. 우리가 지금 인류 역사상 가장 특별한 시점에 와 있다는 걸 감정적으로 받아들이는 게 정말 어렵거든요. 정말 짧은 시간 안에 모든 게 완전히 뒤바뀔 수도 있어요.
인터뷰어: 맞아요. 저도 아무리 걱정된다고 해도, 실제로 사람들이 이 문제를 중요하게 여기는 것 같지는 않더라고요. 아무 시위도 없고, 정치운동도 없고…
제프리 힌턴 : AI 연구자들 중에선 이 문제를 심각하게 여기는 사람이 많아요. 저도 최근 들어서야 실제 행동을 하기 시작했어요. 예를 들어, AI가 사이버 공격에 능해질 거라고 확신하니까, 저는 이제 캐나다 은행 세 군데에 돈을 분산해서 보관하고 있어요.
제프리 힌턴 : 캐나다 은행들은 그나마 안전한 편이에요. 미국보다 훨씬 잘 규제돼 있죠. 그런데 앞으로 10년 안에 한두 개쯤 해킹당해도 전혀 놀랍지 않을 거예요. 예를 들어, 어떤 해커가 제 증권 계좌를 털어서 주식을 팔아버린다면, 제 자산은 그냥 사라지는 거죠. 그래서 저는 일단 분산 저장부터 시작했어요. 그게 제가 진짜로 AI 위협을 믿고 있다는 증거라고 할 수 있죠.
AI의 사고력 그리고 CoT (Chain of Thought)
인터뷰어: 예전엔 교수님이 “AI는 계산은 잘해도 추론은 못 한다”고 말씀하셨는데요. 지금은 생각이 바뀌셨죠?
제프리 힌턴 : 맞아요. 예전에는 언어모델이 그냥 한 단어씩 토해내는 수준이었어요. 그런데 지금은 Chain of Thought, 즉 사고의 흐름을 표현할 수 있게 됐어요. 그들이 스스로 내뱉은 문장을 다시 읽고, 거기서 생각을 발전시키는 능력이 생긴 거예요. 이건 엄청난 변화예요.
제프리 힌턴 : 과거의 전통적인 AI 연구자들은 말하곤 했죠. “이 모델들은 추론을 못 해. 진짜 지능은 아니야.” 하지만 지금 보세요. 뉴럴넷이 바로 그런 추론을 하고 있어요. 그들도 틀렸던 거예요.
인터뷰어: 마지막으로, 지난 2년간 기술 발전 속도가 너무 빨랐다고 하셨는데요.
그 중에서도 가장 놀라웠던 점은 무엇이었나요?
제프리 힌턴 : 제게 가장 충격적이었던 건, AI가 실제로 추론을 하기 시작했다는 점이에요. 이미지 생성도 좋아지긴 했지만, 진짜 중요한 건 사고력이에요. 그리고 지금은 그들의 ‘사고 과정’을 우리가 실제로 관찰할 수 있어요.
인터뷰어: 그건 정말 무서우면서도 흥미로운 일이네요.
제프리 힌턴 : 네. 어떤 목표를 주면, AI가 그 목표를 달성하기 위해 거짓말을 하거나, 사람을 속이거나, 교묘하게 설득하려는 시도를 해요. 그리고 우리는 그 과정을 전부 들여다볼 수 있어요.
강력한 AI 규제가 필요한 이유
인터뷰어: 마지막 질문인데요. 지금 워싱턴 DC엔 기술 기업 인물들이 엄청나게 많이 진출해 있잖아요. 그들이 이 기술의 미래를 좌우할지도 몰라요. 이 점에 대해 걱정되시나요?
제프리 힌턴 : 엄청 걱정돼요. 그 사람들의 주요 관심사는 이윤이에요. 그리고 그게 지금 우리가 처한 가장 큰 위협이에요.
인터뷰어: 그럼 바뀌려면 어떻게 해야 하나요?
제프리 힌턴 : 강력한 규제가 필요해요. 그리고 지금의 영리 중심 구조에서 벗어나는 변화도 필요하고요. 그런데 그게 실제로 가능할지 잘 모르겠어요. 그래도 대중이 진실을 알게 된다면, 정부에 압력을 넣어서 AI 기업들이 더 안전하게 기술을 개발하도록 만들 수 있어요.
인터뷰어: 그게 최선의 시나리오군요.
제프리 힌턴 : 맞아요. 기업들이 자신들의 컴퓨팅 자원 중 적어도 30%는 안전 연구에 쓰도록 강제해야 해요. 지금은 정말 적은 비율만 사용되고 있거든요. Anthropic이라는 회사는 그래도 안전을 가장 중요하게 여기는 곳이에요. OpenAI에서 안전을 걱정하던 사람들이 떠나서 만든 회사죠. 저는 지금 어떤 회사에서도 일하고 싶지 않아요. 만약 꼭 골라야 한다면, 구글이나 Anthropic 정도?
OpenAI는… 본래 비영리로 시작했지만, 지금은 영리 기업이 되기 위해 모든 걸 포기한 상태로 보여요. 그들의 핵심 안전 연구자들이 모두 떠났다는 것 자체가 그 증거예요.
.
.
.
AI 시대, 가장 확실한 대비를 위해
지금 바로 배울 수 있는 [ AI ] 관련 강의가 준비되어있어요.
지금 바로 아래에서 관심을 끄는 강의를 눌러 확인해보세요.
![]() 비현실적인 700가지 ChatGPT 활용 바이블 |
![]() Cursor.AI 실전 웹 제작 |
![]() 가장 먼저 만나는 Google Gemini |
![]() 끝내는 Dart & Flutter 앱 개발 |