출처: Full interview: “Godfather of AI” shares prediction for future of AI, issues warnings
“이제 AI가 인간을 지배한다”
노벨상 수상자의 경고 :
AI 대부 제프리 힌턴 인터뷰
AI 발전 속도, 너무 빨라!
인터뷰어: 우리가 마지막으로 이야기를 나눈 게 2년 1개월 전이었죠. 그동안 AI 미래를 어떻게 바라보게 됐는지, 생각이 어떻게 변했는지 궁금해요.
제프리 힌턴 : 음, 인공지능은 제가 생각했던 것보다 훨씬 더 빠르게 발전했어요.
특히, 지금은 질문에 답만 하는 AI가 아니라, 세상 속에서 실제로 행동을 할 수 있는 AI 에이전트들이 등장했죠. 그런 AI는 훨씬 더 위험해요. 그래서 지금 상황은 예전보다 오히려 더 무서워졌다고 생각해요. 이걸 AGI라고 부를지, 초지능이라고 부를지는 모르겠지만, 어쨌든 아주 강력한 AI 시스템이 된 거예요.
인터뷰어: 그런 AI가 언제쯤 나타날 거라고 생각하시나요?
제프리 힌턴 : 작년에는 5년에서 20년 사이에 올 가능성이 높다고 생각했어요. 그러니까 지금은 4년에서 19년 사이에 올 가능성이 높다고 생각해야겠죠. 여전히 그렇게 보고 있어요.
인터뷰어: 지난번에 이야기하셨을 때보다 시점이 더 빨라진 거네요? 그땐 20년쯤이라고 하셨는데.
제프리 힌턴 : 네. 지금은 10년 안에도 올 가능성이 꽤 높다고 생각해요. 그래서 결국 4년에서 19년 사이에 도달하게 될 거라고 봐요.
인터뷰어: 그게 어떤 모습일까요?
제프리 힌턴 : 솔직히, 만약 AI가 통제권을 쥔다면 그게 어떤 모습일지는 상상하고 싶지 않아요. 너무 많은 방식이 가능하거든요. 게다가 지금 이야기하고 있는 건 ‘지배’의 문제만은 아니에요.
인터뷰어: 그런 ‘지배’에 대한 이야기도 언젠간 하게 되겠죠. 그건 그렇고, AI가 정말 매우 똑똑한 시스템이라고 했을 때, 어떤 일들을 할 수 있을까요?
제프리 힌턴 : 가장 이상적인 시나리오는, 우리 모두가 마치 대기업의 약간 멍청한 CEO 같은 존재가 되는 거예요. 실제로는 엄청나게 똑똑한 비서가 모든 걸 처리해주는 거죠. 그 비서는 CEO가 원하는 대로 일을 하지만, 실질적으로는 모든 걸 관리해요.
그래서 CEO는 자기가 뭔가를 결정하고 있다고 생각하지만, 실제로는 전부 비서가 처리하고 있고요. 그 결과 CEO는 뿌듯하게 느끼는 거죠. 그게 가장 좋은 시나리오예요.
인터뷰어: 미래에 대해 낙관할 수 있는 이유가 있는 분야를 몇 가지 언급하신 적이 있잖아요?
제프리 힌턴 : 맞아요.
인터뷰어: 하나씩 이야기해볼까요? 예를 들어 의료 분야요.
제프리 힌턴 : 의료 분야에서는요, 예를 들어 AI가 의료 이미지를 판독하는 데 훨씬 뛰어나질 거예요.
물론 이건 아주 작은 부분이죠. 몇 년 전에 저는 AI가 지금쯤이면 전문가들보다 더 잘할 거라고 예측했는데, 현재는 전문가들과 비슷한 수준이에요. 곧 훨씬 더 잘하게 될 거예요. 왜냐하면 AI는 훨씬 더 많은 사례를 볼 수 있으니까요.
AI는 수백만 개의 엑스레이를 보고 학습할 수 있어요. 하지만 의사는 그럴 수 없죠. 또, AI는 아주 뛰어난 가정의가 될 수도 있어요. 예를 들어 1억 명의 환자를 본 경험이 있는 가정의라면, 당신처럼 아주 희귀한 질환을 가진 사람도 몇 명은 봤겠죠.
그런 AI는 훨씬 뛰어난 의사예요. 유전체 정보, 각종 검사 결과, 가족의 건강 이력까지 통합해서 잊지 않고 기억하니까요. 그 자체로도 훨씬 나은 진료가 될 거예요.
그리고 지금도 AI와 의사가 협력하면, 어려운 사례에서 의사 혼자일 때보다 훨씬 더 정확한 진단을 내릴 수 있어요. AI는 더 나은 약도 설계할 수 있을 거예요.
AI 덕분에 달라질 세상 – 교육과 직업
제프리 힌턴 : 교육도 또 하나의 중요한 분야예요. 우리는 이미 알고 있죠. 개인 튜터가 있으면 학습 속도가 거의 두 배는 빨라진다는 걸요.
AI는 언젠가 정말 훌륭한 개인 튜터가 될 거예요. 당신이 무엇을 잘못 이해하고 있는지 정확히 파악해서, 그 오해를 풀어줄 수 있는 딱 맞는 예시를 바로 제시해 줄 수 있거든요. 그래서 어쩌면 지금보다 세 배, 네 배 빠르게 배울 수 있을지도 몰라요.
인터뷰어: 그건 대학에겐 나쁜 소식이지만, 사람들에겐 좋은 소식이네요.
제프리 힌턴 : 맞아요.
인터뷰어: 대학 시스템이 이런 시대를 버텨낼 수 있을까요?
제프리 힌턴 : 어느 정도는 살아남을 거예요. 여전히 좋은 대학의 훌륭한 연구실에서 일하는 대학원생들은 진짜 독창적인 연구의 핵심이라고 생각하니까요. 그런 ‘도제식’ 연구는 앞으로도 필요하다고 봐요.
인터뷰어: 기후 위기를 해결하는 데 도움 줄 수 있다고 기대하는 사람들도 있죠?
제프리 힌턴 : 저도 도움이 될 거라고 생각해요. 더 나은 재료를 만들어낼 수 있게 될 테니까요. 예를 들어, 더 나은 배터리를 만들 수 있겠죠.
AI가 분명히 그 설계에 관여하게 될 거고요. 지금도 이미 대기 중 이산화탄소를 포집하는 데 AI를 사용하는 사람들이 있어요. 에너지 효율 면에서 효과가 있을지는 확신이 없지만, 어쨌든 시도되고 있어요.
전반적으로, 우리는 훨씬 더 뛰어난 소재들을 개발할 수 있을 거예요. 심지어 상온 초전도체도 가능할지 몰라요. 만약 그게 가능해진다면, 사막 한가운데에 태양광 발전소를 세우고 아주 먼 곳까지 전기를 전송할 수 있겠죠.
인터뷰어: 그 외에도 긍정적인 사례가 더 있을까요?
제프리 힌턴 : 거의 모든 산업에서 효율성이 높아질 거예요. 거의 모든 회사가 데이터를 바탕으로 예측을 하고 싶어 하잖아요? 그리고 AI는 예측에 정말 능해요.
기존 방법보다 거의 항상 더 뛰어나요. 그래서 AI는 엄청난 생산성 향상을 가져올 거예요. 예를 들어, 당신이 고객센터에 전화를 걸어서 Microsoft에 뭔가 문제를 문의한다고 해봐요. 그 전화를 받는 상담원이 AI일 수도 있어요. 그런데 그 AI는 실제 사람보다 훨씬 더 많은 정보를 가지고 있고, 훨씬 더 능숙할 거예요.
인터뷰어: 몇 년 전에 제가 당신께 직업 상실에 대해 물었을 때, 그건 큰 걱정거리가 아니라고 하셨던 것 같아요. 여전히 그렇게 생각하세요?
제프리 힌턴 : 아니요, 지금은 그게 꽤 큰 문제라고 생각해요. AI는 지난 몇 년간 너무 많이 발전했어요. 만약 제가 콜센터에서 일하고 있다면, 정말 걱정할 것 같아요.
인터뷰어: 예를 들면, 변호사나 기자, 회계사 같은 직업도요?
제프리 힌턴 : 맞아요. 반복적인 일을 하는 직업은 모두 위험해요. 물론 탐사보도 기자는 꽤 오래 살아남을 수 있을 거예요. 왜냐하면 그 일은 높은 주도성과 도덕적 분노 같은 게 필요하거든요. 그런 요소는 AI로 대체하기 어렵죠.
인터뷰어: 콜센터 외에도 직업에 대한 걱정이 더 있나요?
제프리 힌턴 : 네, 거의 모든 반복적인 업무들이요. 예를 들어, 일반적인 비서 업무라든가, 준법률가(paralegal) 같은 직업이 그렇죠. 이런 일자리는 사라지게 될 가능성이 높아요.
AI로 인해 심해질 양극화
인터뷰어: 그렇게 많은 직업들이 사라진다면, 우리는 앞으로 어떤 방향으로 나아가야 할까요?
제프리 힌턴 : 이상적으로는요, 생산성이 증가하면 모두가 그 혜택을 받게 되어야 해요.
그러니까 지금 그 일을 하고 있는 사람들도 일주일에 몇 시간만 일하면 되고, 주 60시간씩 일할 필요가 없어지는 거죠. 두 개의 직업을 가져야 하는 상황도 줄어들 거예요. 하나의 일만으로도 충분한 급여를 받을 수 있게 되는 거죠, 왜냐하면 AI 보조 도구 덕분에 생산성은 그대로이니까요.
인터뷰어: 하지만 실제로는 그렇게 되지 않겠죠?
제프리 힌턴 : 네, 실제로는 그렇게 되지 않을 거예요. 우리가 알다시피, 실제로 벌어지는 일은 아주 부유한 사람들은 더더욱 부유해지고, 그렇지 않은 사람들은 생계를 유지하려고 세 개의 일을 해야 할 수도 있어요.
인터뷰어: 이 질문을 좋아하는 사람은 없지만, 그래도 꼭 여쭤보고 싶어요. ‘P-둠(p-doom)’이라는 개념 있잖아요. 그러니까, AI가 세상을 파괴할 확률이 얼마나 될까 하는 질문인데요. 정말로 그렇게 될 가능성이 있다고 보세요? 아니면 확률은 낮지만, 너무 위험하니까 걱정해야 한다고 보세요?
제프리 힌턴 : 이 분야의 전문가 대부분은 이런 시나리오를 가정하죠. 즉, AI가 우리보다 훨씬 더 똑똑해지고 결국 통제권을 빼앗을 가능성이 있다는 거예요.
그럴 가능성이 1% 이상일 거라는 데에는 다들 동의해요. 그리고 99% 미만일 거라는 데에도 대부분 동의하고요.
인터뷰어: 네, 그건 별로 구체적인 답은 아니지만, 출발점은 되겠네요.
제프리 힌턴 : 맞아요. 그 일이 실제로 벌어질 수도 있고, 아닐 수도 있죠. 각자의 숫자 감각에 따라 다를 수 있어요.
전 엘론 머스크의 의견에 어느 정도 동의하는 불행한 입장인데요. 제 생각에도 그런 일이 벌어질 확률은 10~20% 정도라고 봐요. 물론, 어디까지나 추정치일 뿐이에요.
인터뷰어: 하지만 그건 꽤 큰 수치 아닌가요?
제프리 힌턴 : 네, 합리적인 사람이라면 이렇게 말할 수 있을 거예요. “1%보단 훨씬 높고, 99%보단 훨씬 낮다.” 그런데 문제는 우리가 이런 상황을 겪어본 적이 한 번도 없다는 거예요. 그래서 실제 확률을 제대로 추정할 방법이 없어요.
인터뷰어: 결국 우리는 이걸 ‘겪게’ 되겠죠.
제프리 힌턴 : 네, 결국 겪게 될 거예요. 왜냐하면, 이 AI들은 분명히 인간보다 더 똑똑해질 가능성이 아주 높거든요. 지금도 이미 훨씬 더 많은 정보를 알고 있잖아요.
예를 들어 GPT-4는 일반적인 사람보다 수천 배 더 많은 지식을 가지고 있어요. 물론 모든 분야에서 아주 뛰어난 전문가는 아니지만, 점차 그렇게 될 거예요. 그러면 인간은 전혀 생각하지 못한 방식으로 서로 다른 분야 간의 연결고리를 AI가 찾아내게 될 거예요.
AI는 위험한 존재, 왜냐고?
인터뷰어: 그럼 이렇게 생각해보죠. AI가 인류를 지배하거나 제거하지 않을 가능성이 80%라고 가정했을 때, 즉 최악의 시나리오가 일어나지 않는다면, 그 미래는 전체적으로 긍정적인 결과일까요, 부정적인 결과일까요?
제프리 힌턴 : 만약 우리가 AI가 통제권을 쥐지 않도록 막을 수 있다면, 그건 정말 좋은 일이죠. 문제는, 그걸 막으려면 정말 진지한 노력이 필요하다는 거예요.
하지만 사람들이 이것이 현실로 다가오고 있다는 걸 제대로 인식하게 되면, 정부에 강하게 압박을 넣게 될 거예요. 그런데 지금처럼 단순히 이익만 추구하면서 나아간다면, 결국 AI는 통제권을 가져가게 될 거예요.
우리는 일반 시민들이 정부에 압력을 넣어서, 이 문제를 정말로 진지하게 다루게 만들어야 해요.
인터뷰어: 설령 AI가 우리를 직접 통제하지 않는다고 해도, ‘악용’의 문제가 남아 있죠. 예를 들면 감시 시스템 같은 거요. 이미 중국에서는 그런 일이 벌어지고 있잖아요?
제프리 힌턴 : 맞아요. 중국 서부 지역에서 위구르족에게 벌어지는 일을 보면, AI는 그들에게 정말 끔찍한 존재예요.
저도 토론토에 오기 위해 비행기를 타야 했는데요, 미국 정부가 요구한 얼굴 인식 사진을 찍어야 했어요. 캐나다에 입국할 때도 마찬가지예요. 여권을 넣으면 얼굴을 스캔해서 여권과 일치하는지 확인하죠. 문제는 매번 저를 인식하지 못한다는 거예요.
인터뷰어: 다른 사람들은 다 인식되는데요?
제프리 힌턴 : 맞아요. 다양한 국적의 사람들도 다 인식되는데, 저는 안 돼요. 특히 저는 이 기술이 신경망(neural net) 기반으로 작동하고 있다고 추정하기 때문에 더 억울하죠.
인터뷰어: 예외 처리를 요청한 건 아니신 거죠?
제프리 힌턴 : 아니에요, 그냥… 뭔가 저한테 문제가 있나 봐요. AI가 저를 싫어하는 걸 수도 있죠.
AI로 노벨상 수상, 돌이켜보면..
인터뷰어: 지금이 딱 좋은 타이밍 같네요. 노벨상 이야기를 좀 해볼까요? 노벨상 수상 소식을 처음 들었을 때 어떤 상황이었는지 말씀해 주실 수 있을까요?
제프리 힌턴 : 그날 저는 반쯤 잠든 상태였어요. 침대 옆 탁자 위에 핸드폰을 엎어놓고, 벨소리도 꺼놨죠. 그런데 전화가 오면 화면이 켜지잖아요. 제가 그날은 머리를 전화기 쪽으로 향하고 누워 있었는데, 눈앞에 조그마한 빛줄기가 보였어요.
그때가 캘리포니아 시간이 새벽 1시쯤이었어요. 대부분 저한테 전화하는 사람들은 동부나 유럽에 있거든요.
인터뷰어: ‘방해금지 모드’는 안 쓰시는군요?
제프리 힌턴 : 아니요, 그냥 벨소리만 꺼놔요.
인터뷰어: 그럼 누가 이렇게 말도 안 되는 시간에 전화를 했는지 궁금했겠네요?
제프리 힌턴 : 맞아요. 그래서 전화를 집었죠. 긴 전화번호에, 제가 모르는 국가 코드가 있었어요. 그리고 스웨덴 억양의 목소리가 들리더니, “당신이 Geoffrey Hinton이 맞습니까?”라고 묻더라고요. 그래서 “네, 저 맞아요”라고 했더니, “당신이 노벨 물리학상을 받았습니다”라는 거예요. 근데 저는 물리학을 하지 않거든요. 그래서 장난 전화인가 싶었죠. 사실, 그게 가장 가능성이 높다고 생각했어요.
물론, 노벨상 발표 시기라는 건 알고 있었어요. 사실 저는 데미스 허사비스(Demis Hassabis)가 화학상이라도 받지 않을까 해서 관심 있게 지켜보던 중이었어요. 발표는 다음 날로 예정돼 있었고요.
인터뷰어: 그런데 당신은 물리학을 하지 않으시잖아요.
제프리 힌턴 : 네. 저는 심리학자고, 컴퓨터 과학 안에서 활동하고 있어요. 그런데 물리학 노벨상을 받았다니요.
인터뷰어: 혹시 실수일 수도 있다고 생각하셨나요?
제프리 힌턴 : 당연히 그런 생각이 들었죠. 그리고 이렇게도 생각했어요. ‘만약 이게 실수라면, 상을 취소할 수도 있는 걸까?’ 하하.
그 다음 며칠 동안 제가 했던 사고 과정이 있어요. “심리학자가 노벨 물리학상을 받을 확률은 얼마나 될까?” 글쎄요, 2백만 분의 1 정도일까요? 근데 “이게 내 꿈이라면 내가 노벨상을 받을 확률은?” 글쎄요, 2분의 1쯤?
그렇게 따지면, 이게 현실일 확률보다 꿈일 확률이 백만 배쯤 더 높은 거죠. 그래서 며칠 동안은 계속 이렇게 생각했어요. ‘이거 정말 꿈 아니야?’
인공지능 대부의 호소 “AI는 위험합니다”
인터뷰어: 지금 우리가 이야기하고 있는 이 주제와 관련해서, 이 질문도 나눠보고 싶어요. 어떤 사람들은 우리가 시뮬레이션 속에 살고 있다고 믿어요. AGI(범용 인공지능)의 등장은 오히려 그 증거라고 보는 시각도 있죠. 혹시 그런 이론에 동의하시나요?
제프리 힌턴 : 음, 저는 그걸 진지하게 믿진 않아요. 그건 좀 괴짜 같은 생각이라고 봐요.
인터뷰어: 완전히 말도 안 되는 생각은 아니고요?
제프리 힌턴 : 네, 완전히 말도 안 되는 건 아니에요. 저도 ‘매트릭스’는 봤으니까요. (웃음)
인터뷰어: 아하, 괴짜 같긴 해도, 완전히 터무니없진 않다—그 정도로 이해할게요. 그럼 다시 노벨상 얘기로 돌아가서요, 당신은 그 수상으로 얻게 된 사회적 신뢰와 영향력을 활용하고 싶다고 하셨죠. 그 메시지, 어떤 내용인지 설명해주실 수 있나요?
제프리 힌턴 : 네. 제가 전하고 싶은 메시지는 이거예요: AI는 잠재적으로 매우 위험합니다.
그리고 위험의 유형은 크게 두 가지예요. 첫 번째는 악의적인 사람들이 AI를 나쁜 목적에 사용하는 경우, 두 번째는 AI 그 자체가 인간의 통제를 벗어나는 경우예요. 이 둘은 완전히 다른 종류의 위협이에요.
그리고 우리는 이미 나쁜 사람들이 AI를 악용하고 있다는 걸 알고 있어요.
예를 들어, 브렉시트(Brexit) 때 영국 국민들이 말도 안 되는 이유로 유럽연합 탈퇴에 찬성하도록 유도할 때 사용됐죠. Cambridge Analytica라는 회사가 페이스북에서 정보를 수집하고, 그걸 AI로 분석해서 여론 조작을 했어요.
그리고 그때보다 지금의 AI는 훨씬 더 발전했어요. 아마 트럼프가 당선될 때도 AI가 사용됐을 가능성이 있어요. 마찬가지로 페이스북에서 수집한 데이터를 기반으로요. 확실한 조사는 없지만, 가능성은 충분히 있죠.
게다가 지금은 사이버 공격, 새로운 바이러스 설계, 선거 조작용 페이크 영상, 개인 맞춤형 선동 콘텐츠, 자율 무기 개발 등 수많은 위험한 용도로 훨씬 더 쉽게 악용할 수 있어요.
인터뷰어: 자율 무기요?
제프리 힌턴 : 맞아요. 미국, 러시아, 중국, 영국, 이스라엘 같은 주요 무기 수출국들이 자율 살상 무기를 개발 중이에요. 캐나다는 좀 소심해서 안 할 수도 있지만요. (웃음)
인터뷰어: 그렇다면, 우리가 해야 할 일은 뭘까요? 어떤 종류의 규제가 필요하다고 보세요?
제프리 힌턴 : 먼저 구분해야 해요. 악용에 의한 위협과 AI 자체의 통제권 탈취 위협은 서로 다른 문제예요. 제가 주로 두 번째, 즉 AI가 통제권을 갖는 위험에 대해 이야기하는 이유는, 사람들이 그걸 공상과학 소설 정도로 치부하기 때문이에요. 저는 제 명성을 활용해서 이렇게 말하고 싶어요:
“아니요, 이건 공상과학이 아닙니다. 정말로 걱정해야 할 문제예요.”
인터뷰어: 기후변화 같은 문제와는 다르죠?
제프리 힌턴 : 완전히 다르죠. 기후변화는 탄소만 줄이면 결국 괜찮아져요. 중간에 고통은 있겠지만, 장기적으로는 해결 가능해요. 그런데 AI의 통제권 문제는, 해결 방법을 아직 전혀 모르고 있어요. 연구자들조차도 이걸 막을 수 있는 방법이 존재하는지조차 모릅니다.
하지만 우리가 해야 할 일은, 전력을 다해 시도해보는 것이에요. 문제는 대형 AI 기업들이 그렇게 하지 않는다는 거죠.
인터뷰어: 지금 기업들이 하고 있는 일들을 보면, 그들은 오히려 규제를 더 줄이려고 로비하고 있잖아요?
제프리 힌턴 : 맞아요. 지금도 AI 규제는 거의 없는 수준인데, 그걸 더 줄이려고 해요. 왜냐하면 단기적인 이익을 추구하기 때문이에요.
그래서 우리는 시민들이 정부에 압력을 넣도록 해야 해요. 기업들이 진지하게 안전 연구를 하도록 말이죠. 예를 들어 캘리포니아에서 발의된 법안 1047 같은 건 아주 합리적이에요. 최소한 기업이 테스트를 철저히 하고, 그 결과를 보고하도록 하는 것 정도는 해야 해요.
인터뷰어: 그런데 기업들이 그런 법안조차 싫어하잖아요?
제프리 힌턴 : 네. 그들은 그런 최소한의 책임조차도 지고 싶어하지 않아요.
.
.
.
AI 시대, 가장 확실한 대비를 위해
지금 바로 배울 수 있는 [ AI ] 관련 강의가 준비되어있어요.
지금 바로 아래에서 관심을 끄는 강의를 눌러 확인해보세요.
![]() 비현실적인 700가지 ChatGPT 활용 바이블 |
![]() Cursor.AI 실전 웹 제작 |
![]() 가장 먼저 만나는 Google Gemini |
![]() 끝내는 Dart & Flutter 앱 개발 |