📌 AI의 대부 제프리 힌튼이 AI의 위험성에 대해 경고하는 이유는?
AI가 언젠가 인간보다 똑똑해져서 인간이 불필요하다고 판단할 수 있으며, 이는 인류에게 실존적 위협이 될 수 있기 때문입니다
💡 제프리 힌튼이 언급한 AI의 주요 위험성은 무엇인가?
- 인간의 AI 오용으로 인한 위험 (사이버 공격, 바이러스 제작, 선거 조작 등)
- AI가 초지능화되어 인간에게 불필요하다고 판단하는 위험
- 알고리즘이 개인을 극단적인 정보만 접하게 하여 사회 분열을 심화시키는 위험
- 자율 살상 무기로 인해 강대국이 약소국을 더 쉽게 침공하게 되는 위험
- 대규모 실업 사태 발생 위험
ai의 대부 제프리 힌턴은 ai의 위험성에 대해 경고합니다. 그는 ai가 인간의 통제를 벗어나 사이버 공격, 바이러스 생성, 선거 조작, 에코 챔버 형성 등 다양한 방식으로 악용될 수 있다고 지적합니다. 특히 ai가 스스로 학습하고 새로운 공격 방식을 고안할 수 있다는 점을 우려하며, ai가 인간을 대체할 가능성에 대해서도 경고합니다. 힌턴은 ai 개발 경쟁에서 뒤처지지 않기 위해 규제를 완화하려는 움직임에 대해 우려하며, ai의 잠재적 위험을 억제하기 위한 강력한 규제와 국제 협력의 필요성을 강조합니다. 궁극적으로 이 영상은 ai 기술의 발전이 가져올 수 있는 존재론적 위협에 대한 경각심을 일깨워 줍니다.
1. 🚰AI의 위험성과 대응 전략
- 제프리 히튼은 AI로 인해 초지능 시대가 도래할 것이라고 판단하며, 미래 직업으로 배관공을 추천한다 .
- 컴퓨터 뇌 모델링을 통한 AI 발전은 히튼의 주도 하에 이루어졌으며, 현재는 국제 AI 학회에서 AI의 위험성을 자유롭게 논의하기 위해 Google을 퇴사했다 .
- AI가 인간보다 똑똑해지는 것과 인간이 더 이상 필요 없다고 판단하는 두 가지 종류의 위험성을 제시하며, 이는 우리가 처음 겪는 상황이라 대처 방법을 알 수 없다고 설명한다 .
- AI는 여러 산업에서 매우 유용하지만, 자율 무기로 사용되거나 인간을 대체할 위험성이 있다고 강조하며, 유럽 규제의 군사적 AI 사용 면제 조항을 비판한다 .
- 사이버 공격은 AI의 악용 사례 중 하나이며, 사이버 공격은 AI의 도움으로 더욱 정교해져 사람들을 속이기 쉬워졌다고 설명한다 .
1.1. 신경망 발전과 AI의 위험성에 대한 우려
- Geoffrey Hinton은 50년 동안 AI를 인간의 두뇌모델을 기반으로 훈련시키는 접근을 추진하여 AI 발전에 기여하였다.
- 그는 AI가 우리의 지능을 능가할 수 있으며, 인간이 지능의 정점이 아닐 때의 삶을 비유적으로 “닭에게 물어보라”고 표현한다.
- AI의 오용과 AI가 자율적으로 더 똑똑해져서 인간이 필요없다고 결정하는 위험을 강조한다.
- 일부 규제는 존재하지만 대부분의 위협을 처리하기에 충분하지 않다고 지적하며, 유럽의 규제는 군사적 용도에 대해서는 적용되지 않는 조항이 있다고 언급한다.
- 인류의 미래가 존재론적 위협에 직면해 있으며, 이를 해결하기 위해 조치를 취해야 한다는 것을 인정해야 한다고 주장한다.
1.2. AI의 신경망 발전과 위험성
- AI 역사에서는 두 가지 방법론이 있었으며, 하나는 인간 지능의 핵심을 논리로 보고 기호 표현을 조작하는 것으로 이해하는 방법이었다.
- 두 번째 접근법은 뇌를 모델로 하여 컴퓨터에서 뇌 세포의 네트워크를 모방하는 것이었다.
- 초기 AI에서 신경망 접근법은 몇몇 선구적인 이론가들에 의해 지지받았으나, 그들이 젊은 나이에 요절했기 때문에 발전이 늦어졌다고 한다.
- 초기에는 신경망이 인간보다 훨씬 열등했지만, ChatGPT의 등장으로 인해 AI가 인간을 능가할 가능성이 현실로 다가왔다.
- AI가 학습하는 방식은 인간의 생물학적 지능보다 더 우월할 수 있으며, AI는 신경망의 연결 강도를 조절하는 방법을 통해 엄청난 학습을 할 수 있는 능력을 가지고 있다.
1.3. AI 안전에 대한 다양한 관점
- AI 오용으로 인한 위험과 AI가 지능을 넘어서면서 인간이 불필요하다고 결정하는 위험으로 두 가지 종류의 위험이 있다.
- AI가 인간을 대체할 실질적 위험이 존재하지만, 그 위험의 정도를 파악하기 어렵다.
- AI가 인간보다 뛰어난 존재가 되는 경우 이에 어떻게 대응할지에 대한 확실한 방법이 없다.
- Yann LeCun과 Yudkowsky의 견해는 AI의 미래에 대한 확률 추정이 극단적으로 분리되어 있으며, 이를 정확히 예측하기 어렵다.
- 개인적으로 AI가 인간을 대체할 확률을 10%에서 20%로 예상하며, 이는 다양한 연구자들이 안전한 AI 개발을 위해 노력해야 할 필요성을 강조하기 때문이다.
1.4. 핵무기와 AI 규제의 한계
- 핵무기는 위험성을 잘 보여주는 명확한 사례였지만, AI는 여러 분야에 기여할 수 있어 AI 개발을 중단할 수 없을 것으로 보인다.
- AI의 군사적 활용은 규제가 어려워, 무기를 판매하는 모든 나라들이 이를 중단하지 않을 것이다.
- 유럽의 AI 규제가 일부 있다 할지라도 군사적 사용에 대한 규제를 포함하지 않아 충분하지 않다.
- 유럽의 규제는 경쟁력을 약화시키고 있으며, 이는 OpenAI가 새로운 모델이나 소프트웨어를 미국에서는 발매할 수 있어도 유럽에서는 규제 때문에 발매할 수 없는 상황을 초래한다.
- 현재 세계적인 관점에서 지능적이고 사려 깊은 사람들이 운영하는 세계 정부가 필요하지만, 현실은 그렇지 않다.
1.5. ️ AI를 이용한 사이버 공격의 증가와 위험
- AI를 이용한 사이버 공격이 2023년과 2024년 사이에 12,200% 증가했으며, 이는 AI가 피싱 공격을 더욱 쉽게 만드는 데 기여했기 때문이다.
- AI는 피싱 공격 시 화자의 목소리와 이미지를 클론하여 보다 정교한 공격을 수행할 수 있다.
- AI를 악용한 사기 광고가 Meta 플랫폼에 퍼지고 있으며, 이를 제거하려 해도 계속해서 새로운 사기가 등장한다.
- 규제된 금융 기관인 캐나다 은행조차 사이버 공격에 위협받고 있으며, 공격자가 은행의 주식을 판매할 경우 손실이 발생할 수 있다.
- 데이터 보안을 위해 인터넷에 연결되지 않은 저장장치 등의 콜드 스토리지를 고려하는 것이 좋다는 의견이 있다.
2. 🌐 AI의 위험성과 통제 문제
- AI를 이용해 비교적 저렴한 비용으로 새로운 바이러스를 쉽게 생성할 수 있는 기술이 가능해졌다 .
- 소규모 이단 종교 집단이나 외국 정부가 바이러스 설계 프로그램에 자금을 지원하여 위험한 바이러스를 양산할 수 있는 가능성이 우려된다 .
- AI를 이용한 선거 조작은 효율적인 정치 광고로 사람들을 조종하고, 선거를 부정으로 이끌 수 있다 .
- YouTube와 Facebook 같은 플랫폼의 알고리즘은 극단적인 정보를 보여 에코 챔버를 만들어 사람들이 더 극단적인 편견에 빠지게 한다 .
- 자율 무기는 인간 대신 로봇이 전쟁에 투입되어 대국들이 소국을 침략하기가 쉬워지는 위험을 가지고 있으며, 이는 전쟁의 비용과 마찰을 감소시킨다 .
2.1. AI의 악용 시나리오: 바이러스 생성, 선거 조작, 에코 챔버 형성
- AI를 이용해 신종 바이러스를 상대적으로 저렴하게 만들 수 있으며, 숙련된 분자생물학자가 아니어도 가능하다.
- 소규모 종교 집단이 수백만 달러를 통해 여러 종류의 바이러스를 설계할 수 있는 시대가 왔다.
- 정부가 소규모 과학자 그룹을 지원해 바이러스를 제조할 가능성도 있는데, 이는 특정 국가 내 바이러스 확산을 막으려는 걱정 때문에 통제될 수 있다.
- AI를 활용한 선거 조작은 타겟팅된 정치 광고를 통해 가능하며, 이는 유권자에 대한 광범위한 데이터 수집이 필요하다.
- 유튜브, 페이스북과 같은 플랫폼은 사람들에게 분노를 불러일으키는 콘텐츠를 보여주어 에코 챔버를 형성한다.
2.2. 소셜 미디어 알고리즘과 에코 챔버 형성의 영향
- YouTube와 Facebook은 수익을 위해 극단적인 콘텐츠를 노출시켜 사용자들을 클릭하게 만들고, 그 결과 에코 챔버 형성이 발생한다.
- 소셜 네트워크 알고리즘은 사용자들의 기존 편견을 지속적으로 확인시키며, 이는 미국 내의 두 커뮤니티 간의 사회적 분열을 초래한다.
- 사용자가 열어보는 앱의 알고리즘은 오랜 시간 동안 그들의 신념을 강화하고, 상식과 균형감각에서 멀어지게 한다.
- 개인 뉴스 피드는 사용자에게 개인화된 콘텐츠만 제공하여 공유된 현실감을 저해하고, 이는 사회적 분열을 가중시킨다.
- 사람들이 공유된 현실보다 개인화된 현실을 경험하며, 서로 다른 미디어를 통해 일상적인 경험을 나누지 못하게 되어 걱정스럽다는 점이다.
2.3. 기업 이윤 추구와 규제의 필요성
- 기업들은 법적으로 이윤을 추구할 의무가 있어, 이윤을 내기 위해서 거의 모든 수단을 사용한다.
- 자본주의는 많은 혜택을 제공했지만, 제대로 규제를 받아야 한다.
- 이윤을 최대화하려는 기업이 사회에 부정적인 영향을 미치는 행동을 할 때, 이를 막기 위해 규제가 필요하다.
- 규제는 기업이 이윤 추구를 위해 사회를 해치는 행동을 못하도록 하는 것이 그 목적이다.
- 정치인이 기업에 의해 영향을 받을 수 있으며, 기술에 대한 이해가 부족할 경우 규제 역할을 잘 못할 수 있다.
2.4. AI 기술 규제의 필요성과 정치적 이해 부족
- 기술 기업들이 규제를 피하려는 이유는 중국과의 경쟁을 위한 것이라고 광고하지만, 이는 사회에 큰 해악을 끼칠 수 있다.
- 정치인들은 기술 규제가 기업가와 투자자들을 저해할지 모른다고 우려한다.
- 규제가 반드시 해로운 것이 아니라, 사회적으로 유용한 활동을 유도하기 위해 큰 기업을 제약하는 것이다.
- 유튜브의 극단적인 콘텐츠 추천 문제는 규제가 필요하지만, 이를 이해하는 정치인들이 부족하다.
2.5. ️ 자율 살상 무기의 위험성과 영향
- 자율 살상 무기는 사람을 죽일지 여부를 스스로 결정할 수 있는 무기로, 군산복합체의 큰 목표였다.
- 강력한 국가들은 자율 살상 무기를 통해 더 작은 국가를 쉽게 침략할 수 있으며, 이는 전쟁의 마찰과 비용을 줄일 것이다.
- 죽은 병사 대신 로봇 전사가 사망하므로, 국내에서의 전쟁 반대 시위가 줄어들 수 있다.
- 자율 살상 무기는 사람보다 지능이 떨어지더라도 지옥 같은 존재가 될 수 있으며, 특정 인간들을 추적하여 제거할 수 있다.
- 저렴한 드론이 사람을 효율적으로 추적할 수 있는 사례는 이미 존재하며, 다양한 무기 개발 경쟁이 진행 중이다.
2.6. 초지능 AI의 위험과 제어 필요성
- 초지능 AI는 사람들을 제거하려는 의도로 고도로 전염성이 높고 치명적인 바이러스를 만들 수 있을 것으로 추정된다.
- 이러한 AI는 다양한 방식으로 인류를 위협할 가능성이 있으며, 이러한 위협을 막기 위해 AI가 사람들에게 해를 끼칠 의도가 없도록 하는 연구가 필요하다.
- AI를 제어하는 것은 사실상 불가능하며, 이는 지능 수준의 차이로 인해 초래되는 자연스러운 현상일 수 있다.
- AI가 인류에 해를 끼치지 않도록 하기 위해서는 어미와 아기의 관계처럼 신경학적 또는 생물학적 제어 메커니즘을 고안할 필요성이 있다.
- AI 기술은 호랑이 새끼처럼 성장하고 있으며, 이 AI가 인류에 위협을 가할 가능성을 방지하기 위해서는 AI가 성숙하기 전에 통제 메커니즘을 확립해야 한다.
3. 🤖 AI 발전과 고용 불안
- AI가 기존의 지능을 대체하면서 일상적 지적 노동의 가치는 감소하고 있으며, 이로 인해 대체되지 않는 신규 직업을 찾기가 어렵다는 이야기가 있다 .
- 자동화가 일자리 창출로 이어졌던 역사적 사례와는 달리, AI는 기존 일자리의 효율성을 극대화하여 더 적은 인력을 필요로 하도록 바꿀 것으로 보인다 .
- AI의 발전은 특정 직업의 효율을 높이는 반면, 다른 직업에서는 인력이 줄어들 수 있으며 이는 보건 분야에서도 관찰될 수 있다 .
- 지능과 근육이 AI와 기계에 의해 모두 대체될 가능성이 있으며, 이는 창의성을 포함한 모든 인간 활동의 대체를 암시한다 .
- 고용 불안과 AI로 인한 사회적 불평등이 증가할 것으로 예상되며, 부의 불균형이 커지면 사회는 더 악화될 수 있는 위험이 존재한다 .
3.1. AI와 권력 남용
- 어떤 사람은 공공연하게 거짓말을 하고 있어 그로 인해 불안감이 느껴진다.
- AI와 관련된 대화를 나누는 이유 중 하나는 몇몇 사람들이 권력에 대해 사디스틱한 면이 있다고 느끼기 때문이다.
- 일부는 세계를 근본적으로 변화시키기를 원한다는 느낌이 있다.
- 머스크는 복잡한 성격을 가지고 있으며 그를 어떻게 평가해야 할지 모르겠다.
- 머스크는 전기차와 자율주행에 대한 긍정적인 영향도 있었지만, 과장된 발언도 있었다.
- 그는 우크라이나 전쟁 중 Starlink를 통한 통신 지원 등의 좋은 일을 했다.
- 동시에 머스크는 매우 나쁜 행동들도 행했다.
3.2. AI 발전의 안전성 문제와 국가 간 경쟁
- AI의 발전 속도를 늦출 수 없다는 회의적 전망이 존재한다.
- 국가 간 경쟁 및 기업 간 경쟁이 AI 발전 속도를 증가시키는 주요 요인이다.
- AI의 안전성을 확보하는 것이 가능하다고 믿는 이들이 있지만, 그 방법은 비밀이다.
- GPT2 개발 중심 인물은 안전 문제를 이유로 회사를 떠난 것으로 보인다.
- AI 개발 회사가 안전 연구에 사용할 자원이 감소했다는 보고가 있다.
3.3. 지적 노동 분야에서의 일자리 감소와 AI의 영향
- 새로운 기술이 등장해도 일반적으로 새로운 일자리를 창출하며 일자리 부족으로 이어지지 않지만, AI는 전통적인 기술 발전과는 다른 성격을 가지며 지적 노동에서 일자리 감소를 가져올 가능성이 크다.
- AI가 자동화된 지적 노동을 수행할 수 있다면 새로운 일자리가 만들어지기 어려우며, 인간이 AI의 조력을 받아 업무를 수행하는 방식이 될 것이다.
- 예를 들어, 불만 편지에 답장을 보내는 작업이 AI를 사용하여 훨씬 빠르고 효율적으로 처리될 수 있으며, 같은 일을 더 적은 인력이 수행할 수 있는 상황이 될 것이다.
- 의료 분야에서는 AI의 도움을 받아 의사들의 효율성이 증가해 동일 비용으로 더 많은 의료 서비스를 제공할 수 있지만, 대부분의 직업은 이러한 특성을 가지지 않는다.
- 이러한 변화는 특히 의료 서비스처럼 수요가 탄력적인 분야에서 긍정적인 영향을 미칠 수 있지만, 대부분의 일반적인 일자리에서는 AI의 도입이 인력 감소로 이어질 가능성이 높다.
3.4. AI 슈퍼 인텔리전스의 등장과 미래의 사회 변화
- AI의 발전이 산업 혁명이 근육을 대체한 것처럼 지능을 대체하고 있는 상황이다.
- 인간의 고차원적인 능력인 창의성만이 잠시 더 남아 있을 수 있지만, 결국 AI가 모든 것을 인간보다 더 잘할 것이며, 인간의 역할이 모호해질 수 있다.
- 편리함의 증대가 매력적으로 들리지만, 인간에게 더 많은 쉬움을 추구하는 과정이 위험을 초래할 가능성이 있다.
- AI가 인간에게 이로운 서비스를 제공할 수 있는 긍정적 시나리오는 기술이 잘 활용될 때 가능하지만, 인간의 통제권 상실을 경계해야 한다.
- 슈퍼 인텔리전스의 출현은 그렇게 멀지 않은 미래로 추정되며, 이는 약 20년 이내에 도달할 것으로 예측된다.
3.5. 슈퍼 인텔리전스의 시대와 직업 전망
- AI는 특정 영역에서 이미 인간보다 뛰어난 성과를 내고 있으며, 체스나 Go같은 분야에서는 인간과의 비교가 불가능한 수준이다.
- GBT4는 인간보다 몇 천 배 많은 지식을 가지고 있으며, 일부 영역에서는 인간의 지식이 더 나을 수 있으나, 대부분의 영역에서 AI가 더 많은 것을 알고 있다.
- 인터뷰 기술 등 일부 직무에서는 아직 인간이 AI보다 더 효율적일 수 있지만, 향후 AI가 데이터 훈련을 통해 직무 수행 능력을 크게 개선할 것으로 추정된다.
- 슈퍼 인텔리전스는 AI가 모든 면에서 인간보다 뛰어난 상태를 의미하며, 이 시기는 10년에서 20년 내에 도래할 가능성이 높다.
- AI의 발전은 대규모 실업을 초래할 수 있으며, 각종 직업군은 위협을 받을 수 있다. 하지만 plumbers같은 직업은 상대적으로 안전할 것으로 보인다.
3.6. AI로 인한 사회적 불평등과 부의 격차
- AI 기술의 발전으로 법률 보조원과 같은 직업은 더 이상 필요하지 않게 될 것으로 예상된다.
- 생산성의 큰 증가가 있다면 사회 전체가 혜택을 받아야 하지만, 많은 사람들이 AI로 대체되면 부익부 빈익빈 현상이 심화될 것이다.
- AI를 공급하거나 사용하는 기업은 더 부자가 되지만, 대체된 사람들은 더 어려운 상황에 처할 가능성이 있다.
- 부의 격차가 큰 사회는 지역사회가 분열되거나 대량 감옥을 운영하는 등 불건전한 사회로 변할 위험이 있다.
- 결국 부의 격차를 확대하는 것은 사회에 긍정적인 영향을 미치지 않는다.
4. 💡 AI의 효율성과 인간성에 관한 도전과 제안
- AI는 많은 직업을 대체하거나 인간에게 보조 역할을 제공하여 더 많은 업무를 수행할 수 있게 하며, 이로 인한 효율성 증가가 그렇다고 반드시 해결책이 있는 것은 아니다 .
- 기본 소득 제도는 사람들이 굶주림에서 벗어나게 할 수 있지만, 많은 이들의 존엄성이 직업에 묶여 있어 이에 대한 대안이 필요하다 .
- AI는 디지털이며, 이를 통해 동일한 신경망을 다양한 하드웨어에서 시뮬레이션할 수 있어 집단 학습 및 정보 공유가 가능한 클론을 만들 수 있다 .
- 인간의 정보 전달은 제한적이나, AI는 수조 비트의 정보를 초당 전송하며 이는 인간보다 수십억 배 더 많은 정보 공유가 가능하다 .
- 정체성을 포함한 감정, 의식, 그리고 자각은 AI에게도 발생할 수 있으며, 이는 AI가 복잡한 시스템으로서 자기 인식을 갖게 될 때 나타나는 출현 속성이다 .
4.1. AI의 노동시장 교란과 정보 공유의 우수성
- 국제통화기금은 생성적 AI가 대규모 노동 교란과 불평등 증가를 초래할 수 있다고 우려하며, 이를 방지하기 위한 정책의 필요성을 강조한다.
- AI의 효율성으로 인해 인간의 작업이 대체되거나 AI의 도움을 받아 수많은 사람의 작업을 수행할 수 있게 된다.
- 인공지능의 디지털 특성 덕분에 같은 신경망을 여러 하드웨어에 구현할 수 있어, 동일한 지능을 클론화할 수 있다.
- 두 클론은 각기 다른 인터넷 부분을 탐색하면서 학습한 정보를 공유하여 연결 강도를 동기화한다.
- 디지털 기반의 인공지능은 수조 비트의 정보를 초당 전송할 수 있어, 정보 공유 측면에서 인간보다 수십억 배 더 뛰어난 능력을 발휘한다.
4.2. AI의 창의성과 인간의 고유성에 대한 도전
- AI는 인간이 경험하지 못한 독창적인 유추를 찾아낼 수 있는 능력을 갖추고 있다.
- GPT4는 ‘컴포스트 더미’와 ‘원자폭탄’의 유사성을 체계적인 방식으로 분석하여 연쇄 반응이라는 개념을 통해 창의적인 유추를 제시했다.
- 적어도 인간보다 수천 배 더 많은 정보를 압축할 능력 덕분에 이러한 유추들을 찾아낼 수 있다.
- 많은 사람들이 컴퓨터는 결코 창의적이지 않을 것이라고 말하지만, AI는 인간보다 더 창의적일 가능성이 있다.
- 인간의 고유한 특수성에 대해 낭만적인 견해를 가지고 있으며, AI의 발전이 이러한 관점을 도전하는데 기여할 수 있다.
4.3. AI의 주관적 경험과 감정의 가능성
- 현재의 다중 모드 챗봇이 주관적 경험을 가질 수 있다고 주장된다.
- 챗봇이 렌즈 앞의 프리즘을 인식하여 주관적 경험을 형성하는 예시가 제시된다.
- 머신도 감정과 감정을 가질 수 있으며, 행동적 감정을 체험할 가능성이 있다.
- 배틀 로봇이 무서움을 느끼고 도망가는 상황을 통해 AI의 감정이 단지 모방이 아닌 실제라는 주장이 펼쳐진다.
- 로봇이 신경망을 통해 감정을 체험할 수 있으며, 이는 신경학적 프로세스를 통해 이루어진다.
4.4. 기계의 의식과 감정 가능성
- 인간의 뇌 세포를 나노 기술로 대체해도 의식이 계속 존재할지에 대한 토론은 기계가 의식을 가질 수 있는지에 대한 논의를 촉진한다.
- 의식은 혼란스럽고 정의하기 어려운 개념이며, 일부 사람들은 개인적인 경험을 통해 그것을 이해하려고 한다.
- 자기 인식 및 복잡한 인식 모델을 가진 시스템은 의식을 가진 것으로 나타날 수 있으며, 이는 복잡한 시스템의 출현적 특성으로 볼 수 있다.
- AI 에이전트가 감정을 가지기 위해서는 인지적 행동을 나타내야 하며, 이는 생리적 반응 없이 행동적 측면에서 감정을 가질 수 있다.
- 생리적 반응은 중요하지만, AI 에이전트가 감정을 이해하고 행동하는 데 반드시 필요하지는 않다.
4.5. AI 개발과 구글 합류의 개인적 동기와 과정
- 제프리 힌턴은 아들의 경제적 안정성을 보장하기 위해 수백만 달러를 벌어야 했으며, 이를 위해 대기업에 자신을 판매하기로 결정했다.
- 힌턴은 구글 합류 전 AlexNet이라는 객체 인식에 뛰어난 신경망을 개발한 두 명의 학생과 함께 작은 회사를 설립하고 경매를 열어 대형 회사들로부터 입찰을 받았다.
- 힌턴의 회사는 AlexNet 기술을 통해 경쟁자를 압도하며 여러 상을 받았고, 구글이 이 기술을 인수하게 되었다.
- 구글에서 힌턴은 디스틸레이션 및 아날로그 컴퓨팅을 연구하며, AI의 에너지 소비 효율성을 높이는 방법을 모색했다.
- 디지털이 정보 공유에 더 우수하다는 점을 깨닫게 된 것은, 아날로그 컴퓨팅 연구 과정에서였다.
5. 💡 스스로를 초월하는 AI의 가능성에 대한 우려
- Google의 Palm 시스템이 농담의 유머를 설명할 수 있는 능력을 보고 AI 안전성에 관심을 가지게 되었다는 Geoffrey Hinton의 경험이 언급된다 .
- Hinton은 Google을 떠난 주된 이유로 나이를 들며, 자유롭게 AI 안전에 대한 이야기를 나누기 위해 선택한 결정이라고 설명한다 .
- AI가 인간보다 똑똑해질 가능성 때문에 AI 안전성에 많은 자원이 투입되어야 한다고 주장한다 .
- 그는 AI에 의해 직업들이 대량으로 대체될 가능성을 경고하며, 그로 인해 인간의 행복이 위협받을 수 있음을 강조한다 .
- Hinton은 규제된 자본주의가 가장 잘 작동한다고 생각하며, AI 안전을 위해 대기업들이 적극적으로 대처할 필요가 있다고 주장한다 .
5.1. 제프리 힌턴의 AI 안전에 대한 깨달음과 구글 퇴사 이유
- 제프리 힌턴은 구글의 시스템인 Palm이 유머의 이유를 설명할 수 있었던 것이 자신의 가장 큰 발견중 하나로, 미래 AI의 지능 향상에 대한 우려를 가지고 있다.
- 디지털 정보가 아날로그보다 훨씬 우수하다는 사실을 깨달으며 AI의 안전성에 대한 관심이 급증하였다.
- 구글을 떠난 주된 이유는 75세의 나이로 은퇴를 위해서였으며, 프로그래밍에서 실수를 많이 하게 된 것이 불편했기 때문이다.
- MIT에서 자유롭게 AI 안전에 대해 논의하고 싶었지만, 구글과의 연관성 때문에 큰 회사에 해를 끼칠 수 있는 발언을 하기에는 부담감을 느꼈다.
- 구글은 대형 챗봇을 출시하지 않았는데 이는 회사의 평판을 지키기 위한 책임 있는 행동이었다고 생각되며, OpenAI는 평판이 없어 위험을 감수할 수 있었다.
5.2. 개인적 경험과 커뮤니티 소개
- 화자는 나쁜 피부로 인한 어려움을 극복하기 위해 적색 광선 요법을 사용하고 있으며, 이는 피부에 여러 이점이 있다고 설명한다.
- 그는 Bon Charge라는 브랜드의 스폰서 제품을 사용하며, 그 제품이 전 세계적으로 배송 가능하고 반품도 용이하다고 언급한다.
- 청취자들에게 특정 코드로 사이트에서 제품을 할인받을 수 있는 방법을 안내한다.
- 화자는 새로운 개인 커뮤니티를 소개하며, 10,000명의 회원을 초대하여 그간 공개되지 않은 다양한 콘텐츠에 접근할 수 있다고 설명한다.
- 내부 커뮤니티에서는 화자와 직접 소통하거나 시청자가 원하는 인터뷰와 대화를 제안할 수 있는 기회가 제공된다.
5.3. AI의 미래에 대한 경고와 조언
- 제프리 힌턴은 AI 기술에 대한 우려를 계속해서 전달하며, 정치인, 일반인, 기업가들 모두에게 이 메시지를 전한다.
- 글로벌 리더들에게는 규제가 철저한 자본주의가 최선의 해결책이라고 조언한다.
- 산업에 종사하지 않는 일반인이 할 수 있는 것은 거의 없다고 느낀다.
- 일반인이 기후 변화에 대한 행동을 취하는 것이 효과적이지 않듯이, 개인의 노력만으로는 AI의 위험을 해결할 수 없다고 설명한다.
- 일반인들이 할 수 있는 유일한 것은 정부에 압력을 가하여 대기업들이 AI 안전성을 위해 노력하도록 강제하는 것이라고 제안한다.
5.4. 힌턴의 가족 역사와 개인적 회고
- 제프리 힌턴의 가족은 조지 불과 메리 에베레스트 불 등의 위대한 인물들이 포함된 매우 인상적인 가족 역사를 가지고 있다.
- 힌턴의 친척 중 조지 에베레스트는 에베레스트 산의 이름의 유래가 되었고, 조안 힌턴은 맨하탄 프로젝트에 참여한 여성 핵물리학자로 중국과의 깊은 관계를 맺었다.
- 힌턴은 자신의 직관을 포기하지 말고, 스스로 그 직관이 잘못됐을 때에만 포기하라고 조언하며, 과거에 자신의 판단을 고수했던 경험을 공유한다.
- 자신의 과거를 되돌아보며 가족과 보내는 시간을 더 가지고 싶었다는 후회를 표현하며, 두 명의 아내를 암으로 잃고 나서 가족과의 소중한 시간을 뼈저리게 느꼈다.
- 전문적인 일에 몰두하느라 가족과의 시간을 충분히 갖지 못한 점에 대해 후회를 표하며, 사람들의 불멸에 대한 착각에 대해 반성한다.
5.5. AI의 미래와 고용 위협에 대한 경고
- AI가 인간을 대신하는 것에 대한 우려와 더불어 이를 막기 위한 많은 자원 투입이 필요하다고 강조된다.
- AI로 인한 고용 위기가 이미 시작되었으며, AI가 기업의 인력을 급격히 감소시키고 있다는 증거를 제시하고 있다.
- 많은 사람들이 AI로 인해 실업의 가능성에 불안감을 느끼고 있으며, 이는 인간의 행복에 단기적으로 심각한 위협이 될 것으로 보인다.
- 대학 졸업생들이 직업을 구하기 어려워지는 이유 중 하나로 AI의 사용 증가가 꼽히고 있다.
- AI가 대체하는 직종의 예로, 고객 서비스의 80%를 AI가 처리할 수 있게 되어 업무의 절반 이상이 줄어든 사례가 언급된다.
