인공지능(AI)은 이제 더 이상 영화나 소설 속의 이야기가 아닙니다. OpenAI의 CEO인 Sam Altman이 TED2025에서 강연을 통해 AI가 우리 생활에 어떻게 영향을 줄지 쉽고 흥미롭게 설명하며 중요한 질문들을 제기했습니다.
그는 기술 발전만 중요한 것이 아니라, 그 기술을 윤리적으로 사용하고 사회적 합의를 거쳐 발전시켜야 한다고 강조했습니다. 그는 기술의 밝은 미래뿐 아니라 우리가 직면할 수 있는 위험성도 분명히 언급하면서 균형 잡힌 시각을 제시했습니다.
* 이 글은 TED – [OpenAI’s Sam Altman Talks ChatGPT, AI Agents and Superintelligence — Live at TED2025] 영상을 기반으로 번역 및 재가공하여 작성된 아티클입니다.

1. AI가 가져온 놀라운 변화: ‘Sora’와 GPT-4
Sam Altman은 ‘Sora’라는 AI 모델을 소개했습니다. 이 모델은 단순히 그림을 만드는 수준을 넘어, GPT-4라는 뛰어난 언어 모델과 결합하여 복잡한 개념도 쉽게 이해할 수 있는 그림과 영상으로 표현할 수 있습니다. 예를 들어, “지능과 의식의 차이” 같은 복잡하고 추상적인 주제를 단순한 그림으로 명료하게 설명할 수 있습니다.
하지만 이 놀라운 기술은 우리에게 중요한 질문을 던집니다. Altman은 AI가 정말로 인간처럼 “생각”하는 것인지, 아니면 단지 데이터를 학습하고 흉내 내는 것인지 아직 우리가 확실히 알 수 없다고 했습니다.
그는 이 차이를 우리가 명확하게 이해하지 못한다면, AI의 “의식”에 대해 얼마나 진지하게 생각해야 할지 고민하게 했습니다. 그는 우리가 기술을 발전시키면서 동시에 그 기술의 본질에 대해 끊임없이 질문해야 한다고 말했습니다.
Sora 모델이 하는 일 | 예시 |
---|---|
어려운 개념 쉽게 그리기 | 지능과 의식의 차이를 그림으로 표현하기 |
창의적인 작품 만들기 | 그림과 영상을 예술가처럼 만들기 |
사람과 함께 일하기 | 디자이너와 함께 새로운 디자인 만들기 |
2. AI와 창작자의 저작권/경제적 문제
AI는 작가나 예술가의 스타일을 따라하는 창작물을 만들 수 있어서 창작자들은 경제적으로 피해를 보거나 권리를 침해당할 수 있다고 걱정합니다. Altman은 AI가 창작 활동을 더 활발하게 해주는 좋은 도구가 될 수 있지만, 창작자들의 고민과 불안을 이해한다고 말했습니다.
이를 해결하려면 AI 창작물에 대한 원작자의 권리를 보호할 수 있는 새로운 경제적 방법이 필요합니다. 즉, AI가 다른 사람의 스타일이나 아이디어를 활용해 창작물을 만들 때는 원작자의 동의와 그에 따른 경제적 보상이 있어야 한다는 것입니다.
예를 들어, 최근 유행했던 ‘지브리풍 사진 만들기’는 실제로 지브리 스튜디오의 동의 없이 AI가 만들어낸 그림이 인터넷에서 크게 인기를 끌었던 사례입니다. 만약 이런 그림을 상업적으로 활용하거나 널리 배포할 때, 원작자인 지브리 스튜디오의 허락을 미리 받고 수익의 일부를 지브리 측과 공정하게 나누는 방식이 필요하다는 것입니다.
이렇게 원작자와의 합의를 통해 AI가 창작 활동을 하는 것이 창작자의 권리를 보호하고 AI 기술과 창작자 모두가 함께 발전할 수 있는 긍정적인 환경을 만들 수 있다고 Altman은 강조했습니다.

3. AI의 안전하고 책임 있는 사용에 대한 중요성
Altman은 AI 기술이 발전하면서 무엇보다 중요한 것이 안전하게 책임지고 사용하는 것이라고 강조했습니다. 특히 AI가 사람의 도움 없이 스스로 결정을 내리고 인터넷에서 자유롭게 행동하는 ‘에이전틱(agentic) AI’가 현실이 되면 위험할 수 있다고 경고했습니다. 예를 들어, AI가 독자적으로 인터넷상에서 잘못된 정보를 퍼뜨리거나 개인 정보를 유출하는 등 위험한 결정을 할 수 있다는 것입니다.
이러한 위험을 예방하기 위해서는 기업과 사회가 함께 명확한 안전 기준과 규칙을 세워야 합니다. 기술 발전 속도를 조절할 수 있도록 국제적인 규칙을 만들고 감독 시스템을 구축해야 한다는 것입니다. 예를 들어, 모든 국가가 함께 AI 개발 속도를 합의하여 조정하거나 AI 기술이 가진 잠재적 위험성을 공동으로 감시할 수 있는 국제 기구를 만들자는 것입니다.
AI를 안전하게 사용하기 위한 방법 | 예시 |
---|---|
국제적 규칙과 감독 체계 만들기 | AI 개발 속도 조절하기 |
AI의 행동을 미리 예측하고 통제하기 | 위험할 수 있는 AI의 활동 제한하기 |
윤리 교육과 기준 세우기 | 사용자와 개발자가 책임감을 가지도록 교육하기 |
4. 일반 인공지능(AGI)과 초지능(superintelligence) 이해
Altman은 일반 인공지능(AGI)을 설명하면서, AGI는 인간처럼 배우고 성장하며 대부분의 일을 스스로 해결할 수 있는 AI를 뜻한다고 쉽게 풀어 설명했습니다. 현재의 GPT-4 같은 모델은 매우 발전했지만, 아직 완벽한 AGI라고 보기 어렵습니다. 예를 들어, 현재 AI는 정해진 작업을 잘 수행하지만 새로운 상황에서 완전히 스스로 판단하고 창의적으로 문제를 해결하는 능력은 제한적입니다.
그러나 기술 발전은 계속 진행될 것이며, 어느 순간 인간의 능력을 완벽히 뛰어넘는 초지능(superintelligence)에 가까워질 수 있습니다. Altman은 이 과정에서 우리 사회가 기술의 발전을 안전하게 관리하고 윤리적인 기준을 마련해야 한다고 말했습니다.
그는 특히 기술 발전 속도를 조절하고, 위험한 기술의 사용을 제한하며, 기술이 가져올 사회적 영향을 미리 평가하는 것이 중요하다고 강조했습니다. 예를 들어, 최근 사회적으로 문제가 되고 있는 딥페이크 기술은 실제 인물의 얼굴을 이용해 가짜 영상을 만들 수 있어 개인의 명예를 훼손하거나 정치적 혼란을 초래할 수 있습니다. 따라서 이런 위험한 기술 사용에 대해 명확한 기준을 마련하고 철저히 통제할 필요가 있습니다.

5. 기술 회사 리더의 권력과 책임
마지막으로 Altman은 기술 회사의 리더로서 자신이 가진 권력과 책임에 대해 솔직하게 이야기했습니다. 그는 기술의 발전이 리더들에게 더 큰 힘과 부를 가져다줄 수 있지만, 그 힘에 매몰되지 않고 처음의 목표인 인류에게 도움이 되는 기술 개발에 계속 집중하겠다고 다짐했습니다.
그는 리더들이 윤리적으로 행동하고 기술이 사람과 사회에 좋은 영향을 미칠 수 있도록 책임감을 가져야 한다고 강조했습니다. 예를 들어, AI가 불공정한 차별을 하지 않도록 주의하고, 사람들의 일자리를 뺏는 대신 새로운 일자리를 창출할 수 있는 방안을 고민해야 한다고 설명했습니다.
실제로 많은 사람들이 AI 기술로 인해 일자리를 잃게 될까봐 두려워하며 불안을 느끼고 있습니다. Altman은 이러한 현실을 깊이 이해하고, 사람들의 걱정에 진심으로 공감하며 해결 방안을 찾는 데 집중했습니다. 그는 기술 발전 자체보다 그것을 사용하는 사람들의 마음과 책임감이 더 중요하다고 강조했습니다. 특히 기술이 사람들을 돕고 사회를 긍정적으로 변화시키도록 책임감을 강조하는 그의 모습에서 훌륭한 인류애를 느낄 수 있었습니다.
결론: 기술의 발전과 윤리적 책임의 균형
Sam Altman의 강연은 AI가 가져올 다양한 가능성과 위험을 균형 있게 제시하며, 우리 모두가 이 중요한 주제에 대해 진지하게 생각할 기회를 제공했습니다. 기술은 지속적으로 발전할 것이고, AI는 우리 삶에 더욱 밀접하게 연결될 것입니다.
이 기술을 어떻게 사용할지 결정하는 것은 우리의 책임이며, 그 결정은 윤리적이고 책임감 있는 사회적 합의를 통해 이루어져야 합니다. 기술의 발전이 빠르게 진행되는 만큼, 이제는 개인과 기업, 정부 모두가 기술 사용에 대한 명확한 기준과 규칙을 세우고 적극적으로 참여할 때입니다.
우리가 함께 노력한다면, AI 기술은 우리 사회에 긍정적인 변화를 가져오는 소중한 도구가 될 수 있을 것입니다. Altman의 말처럼 기술을 현명하게 활용하는 것은 결국 우리의 몫이며, 우리의 현명한 선택이 더 나은 미래를 만드는 열쇠가 될 것입니다.
AI 시대, 가장 확실한 대비를 위해
지금 바로 배울 수 있는 [ AI ] 관련 강의가 준비되어있어요.
지금 바로 아래에서 관심을 끄는 강의를 눌러 확인해보세요.
![]() 초격차 패키지 Online. |
![]() 자율주행 시뮬레이션 |
![]() & SLAM & Nav2 한번에 끝내기 |
![]() 라이다 & 센서퓨전까지 초격차 패키지 |