구글이 바꾸는 AI 생태계 7가지 흐름 : TPU Ironwood부터 Gemini Flash까지

왜 지금 Google Cloud Next를 다시 봐야 하는가?

| 구글 클라우드가 AI로 뭘 하겠다는 걸까? 🤔

captureSource
[출처] CNET
2025년 Google Cloud Next는 단순한 신제품 발표 행사가 아니었다.

행사에서는 AI 혁신을 통해 기업들이 실제로 어떻게 변화할 수 있는지에 대한 구체적인 로드맵이 쏟아졌다.

 

구글은 명확하게 밝혔다.

“우리는 AI 기술을 통해 기업 혁신을 돕고, 개발자와 데이터 전문가에게 진짜 필요한 도구를 제공하겠다”고.

예를 들어, Cloud WAN은 이제 구글의 글로벌 네트워크를 기업들이 활용할 수 있게 해주며,

애플리케이션 성능은 높이고 비용은 줄이는 일석이조의 효과를 준다. 완전 이득이다.

 

또한, 구글이 공개한 7세대 TPU, Ironwood는 이전 세대 대비 성능이 어마어마하게 향상되었으며,

Gemini 모델과 Vertex AI를 통해 누구나 손쉽게 AI 에이전트를 만들고 관리는 시대가 열리고 있다.

 

이제는 다양한 데이터 소스와도 자연스럽게 연결되니, AI 도입에 필요한 벽이 점점 낮아지고 있는 셈.

즉, 이번 Google Cloud Next는 구글이 단순히 AI 모델을 개발하는 수준을 넘어서,

실제로 기업이 사용할 수 있는 완성형 AI 생태계를 어떻게 구현했는지를 보여주는 무대였다.

 

발표 영상은 12분 남짓, 허나 그 안에는 현재 Google이 그리고 있는 AI 미래의 설계도가 촘촘히 담겨 있다.

 


 1. 🌐 글로벌 사설 네트워크 + Ironwood TPU

AI 성능과 비용의 딜레마를 동시에 해결하다

Google이 자랑하는 초대형 인프라 중 하나가 바로 Cloud Wide Area Network(Cloud WAN)이다.

기존에는 일부 대형 고객사만 활용할 수 있었지만, 이제 모든 Google Cloud 고객에게 개방된다.

Cloud WAN은 Google이 전 세계에 구축한 데이터 센터 간 고속 백본을

고객이 자신의 전용 네트워크처럼 사용할 수 있게 하는 서비스다.

이는 클라우드 서비스의 응답 지연을 줄이고, 비용도 절감할 수 있어

기업 입장에서는 효율성과 보안을 모두 잡을 수 있다.

  • 예시 고객사 : Citadel Securities, Nestlé 등

 

| TPU Ironwood, 그야말로 ‘괴물 칩’

captureSource
[출처] CNET
함께 발표된 7세대 TPU Ironwood는 계산 성능 측면에서 매우 큰 도약을 보여줬다.

초대 TPU와 비교해 3600배의 성능 향상, 에너지 효율은 29배 개선이라는 수치를 보면,

구글이 AI 인프라 경쟁에서도 NVIDIA를 견제할 준비가 되었음을 알 수 있다.

Ironwood는 Gemini 2.5와 같이 매우 까다로운 모델의 수요를 충족하기 위해

pod 당 9,000개 이상의 칩으로 구성되어 있다.

그래서 pod 당 42.5 exaflops의 컴퓨팅 파워를 제공할 수 있는 힘을 가졌는데

이는 세계 최고 슈퍼컴퓨터보다 24배 이상의 컴퓨팅 파워를 제공하는 수준이다.

 

즉, 정리하자면 스펙은 이렇다. 그야말로 괴물 칩이라는 것이다

TPU 7세대 특징 설명
성능 기존 TPU 대비 36000배 향상된 성능
규모 pod 당 9,000개 이상의 칩, pod 당 42.5 exaflops의 컴퓨팅 파워
에너지 효율 29배 더 높은 에너지 효율
슈퍼컴퓨터 대비 세계 최고 슈퍼컴퓨터 대비 24배 이상의 컴퓨팅 파워

 

📌 의미 있는 포인트

단순 연산 속도를 넘어, 구글이 초거대 모델의 훈련을 자체적으로 반복할 수 있는 독립성을 확보했다는 신호

 


 2. 🧠 AI 추론의 혁신

: 하드웨어와 소프트웨어가 만나 최적의 경험을 만들다

captureSource
[출처] CNET
AI를 운영하면서 가장 어려운 과제는 ‘추론 인프라 운영’이다.

학습보다 추론이 더 어렵고 비용이 많이 든다.

이번 발표는 이 과제를 풀기 위해 소프트웨어와 하드웨어의 최적화 전략을 동시에 제시한다.

  • GKE(Google Kubernetes Engine) + AI 추론 지원 기능
    → 자동 스케일링, 로드 밸런싱, 모델 파티셔닝 지원
  • Pathways 런타임 제공
    → 멀티 호스트 추론, 동적 스케일링 지원
  • VLM(PyTorch 기반 비전-언어 모델)도 TPU에서 지원
    → GPU 비용보다 저렴하게 고성능 AI 서비스가 가능

🧩 이런 통합 인프라가 가능한 곳은 매우 드물다.

AI 서비스를 구축할 때 ‘모델은 좋아도 배포가 어렵다’는 말이 있는데, Google은 이를 모델 훈련 – 추론 – 운영까지 일관된 최적화 환경으로 해결하려는 것이다.

 


 3. ⚡ Gemini 2.5 Flash: 대형 AI 모델의 효율적 운영

Google은 Gemini 모델을 통해 고성능과 비용 효율이라는 두 마리 토끼를 잡으려 한다.

모델 특징 비용 효율 (vs Gemini Flash) 활용 환경
Gemini 1.5 Pro 초대형 컨텍스트, 고성능, 고비용 문서 요약, 긴 대화, 코드 리뷰
Gemini 1.5 Flash 경량, 빠른 추론, 다양한 환경 기준 모바일, 실시간 챗봇
GPT-4 고성능 언어 모델 24배 낮음 웹 챗봇, 코드 생성
DeepSeek R1 다국어 지원, 고효율 5배 낮음 검색, 문서 처리

 

특히 보안 민감 영역(예. 미국 정부 기밀)에 최적화된 Google Distributed Cloud와의 연동은

국방/금융/에너지 산업에 AI를 실제 도입하는 데 필요한 신뢰성을 제공한다.

Gemini는 이러한 보안 친화형 환경에서 유연하게 배포될 수 있으며,

로컬 및 인터넷 연결 여부와 관계없이 실행 가능한 구조를 가지고 있다.

 

이는 Google Distributed Cloud가 NVIDIA의 Confidential Computing,

Blackwell 시스템(dgxb200 및 hgxb200 플랫폼)과의 호환성을 제공하고,

Dell이 주요 파트너로 참여하고 있기 때문에 가능한 일이다.

 

또한 Gemini는 Google Workspace 제품군과도 깊이 통합되고 있다.

예를 들어, Google Sheets의 “Help Me Analyze” 기능은 데이터 분석을 AI가 자동으로 보조해주며,

Google Docs의 “Audio Overviews” 기능은 문서 내용을 고품질 오디오로 요약해,

새로운 방식의 콘텐츠 소비와 상호작용을 가능하게 한다.

뿐만 아니라, WorkspaceFlows 기능은 반복적인 업무를 자동화하고,

더 많은 컨텍스트를 기반으로 사용자가 보다 빠르고 정확한 의사 결정을 내릴 수 있도록 돕는다.

결국 Gemini는 모델 그 자체를 넘어서, 실제 업무 환경에 깊이 녹아드는 형태로 진화하고 있는 것이다.

 


 4. 🧩 Vertex AI의 진화

: 오픈 모델 통합, 검색 엔진 연계, 음악 생성까지

Vertex AI는 이제 단순한 모델 호스팅 플랫폼이 아니다.

이번 발표에서 Vertex는 다음과 같은 방식으로 진화했다.

  • Meta의 LLaMA 4, AI2의 Open Model 포트폴리오 등 주요 오픈 모델을 Vertex AI 내에서 직접 활용 가능해졌고,
  • Model Guard를 통해 AI 모델이 필요한 정보를 보다 안전하고 효율적으로 접근할 수 있는 환경이 제공된다.
  • 데이터 소스와 벡터 데이터베이스를 쉽게 연결할 수 있으며,
  • NetApp 스토리지와의 통합을 통해 데이터 중복 없이 AI 에이전트를 직접 구축하고 운영할 수 있다.
  • 모델의 사실성을 보장하기 위해 Google Search, 기업 내부 데이터, Google Maps, 그리고 다양한 타사 소스까지 통합하여 시장에서 가장 포괄적인 데이터 접근 방식을 제공하고 있다.

또한, 멀티모달 생성 기능에서도 진보가 있었다.

텍스트를 기반으로 음악을 생성할 수 있는 LIA (Language-to-Music AI)

Google Cloud 환경에서 사용 가능해졌으며,

사용자는 간단한 프롬프트를 입력해 30초짜리 맞춤형 음악 클립을 생성할 수 있다.

예를 들어, “재즈 분위기의 30초 광고 음악을 만들어줘”라고 입력하면,

AI가 실제 음악을 작곡하고 생성해 콘텐츠 제작자가 바로 사용할 수 있게 만들어준다.

결과적으로 Vertex AI는 단순히 모델 실행 환경이 아니라,

AI 기반의 데이터 파이프라인, 생성형 콘텐츠, 멀티모달 워크플로우까지 포함하는

종합 AI 운영 플랫폼으로 진화하고 있다.

 


 5. 🤖 다중 AI 에이전트 시스템

: ADK와 Agent Space

이번 행사에서 Google이 가장 강력하게 밀고 있는 분야 중 하나는 바로 AI 에이전트다.

ADK(Agent Development Kit)는 단일 모델이 아니라

여러 개의 협력하는 AI 시스템을 위한 프레임워크다.

  • ADK는 다양한 도구/API/데이터 소스에 접근 가능
  • Agent Space는 다양한 에이전트를 조직 내에서 배치, 실행, 추적 가능

🔽 예시 🔽

  • 한 에이전트가 이메일 내용을 분석
  • 다른 에이전트가 이를 요약해 회의록 생성
  • 또 다른 에이전트가 이를 팀 캘린더에 반영

기존에는 이 흐름을 사람이 일일이 했다면,

이제는 에이전트 간 통신 프로토콜(A2A)을 통해 자동화할 수 있게 된다.

 


 6. 💼 전문화된 AI 에이전트 : 분석, 코딩, 고객 응대까지

captureSource
[출처] CNET

이제 AI는 단순 챗봇을 넘어서, 특정 도메인을 깊게 이해한 전문 에이전트로 진화하고 있다.

✔  업무 역할별 특화 에이전트

아래와 같이 특화된 AI는 단순 ‘대답하는 봇’이 아니라, 실제 사람처럼 판단하고 행동하는 동료로 작동한다.

  • 데이터 분석 에이전트
    → 파이프라인 설계, 시각화, 분석 자동화
  • 코딩 지원 에이전트
    → 코드 리팩토링, 테스트 자동 생성, 실시간 로그 모니터링
  • 고객 응대 에이전트
    → 감정 인식, 실시간 음성/영상 해석, 고객 장치에서의 인터랙션 지원

✔  Vertex AI 기반 에이전트 개발 및 운영

Vertex AI는 AI 에이전트 개발과 관리의 진입 장벽을 획기적으로 낮춰주는중심 플랫폼으로 부상하고 있다.

  • 다중 에이전트 시스템 구축이 가능하고, 각 에이전트가 역할을 나눠 협업할 수 있도록 설계되어 있다.
  • 새로운 Agent Development Kit (ADK)는 Gemini 기반 에이전트를 쉽게 구축하고, 다양한 도구 및 데이터 소스와의 통합을 간소화해준다.
  • ADK는 AI가 다양한 외부 환경과 상호 작용할 수 있도록 설계된 통합 방식으로, 개발자는 일일이 API를 붙이지 않아도 된다.

또한, Google Agent Space는 조직 내부에서 에이전트를 실질적인 도우미로 활용할 수 있게 해준다.

직원들은 이를 통해 조직 내 정보를 검색하거나 업무를 자동화할 수 있고,

Gemini, Google 대화형 AI, 타사 에이전트까지 연계하여 더욱 폭넓은 업무를 처리할 수 있다.

✔  데이터 전문가를 위한 에이전트

Google은 데이터 분야의 전문가들을 위한 다양한 AI 에이전트도 함께 발표했다

  • 데이터 엔지니어링 에이전트
    → 데이터 파이프라인 생성, 메타데이터 관리, 데이터 품질 유지 자동화
  • 데이터 사이언스 에이전트
    → 데이터 로딩, feature engineering, 예측 모델링까지 전체 프로세스를 지원하는 AI 코딩 파트너
  • 분석가 및 비즈니스 유저용 대화형 분석 에이전트
    → 자연어로 데이터를 질의하고, 정확하고 신뢰할 수 있는 분석 결과를 즉시 제공

✔  코드 어시스트 에이전트

Google은 개발자 생태계를 위한 코드 어시스트 에이전트도 함께 공개했다.

이 에이전트는 소프트웨어 개발의 모든 단계에서 생산성을 높여준다.

  1. Atlassian, Sentry, Snyk 등 다양한 도구와 직접 연동
  2. 개발자는 칸반보드(Kanban Board) 형식의 시각화 화면에서 에이전트가 수행 중인 작업을 실시간으로 확인 가능
  3. 코드 리팩토링, 테스트 자동화, 배포 파이프라인 최적화 등 소프트웨어 개발 수명 주기 전반을 지원

이처럼 Google은 단순한 ‘도구’로서의 AI를 넘어,

각 업무의 진짜 조력자가 될 수 있도록 설계된 전문 에이전트 생태계를 제안하고 있다.


결론: AI 생태계는 ‘모델’보다 ‘시스템’의 싸움이다

이번 Google Cloud Next ’25는 AI 혁신이 단순한 모델 개발을 넘어서,

AI 생태계 전체를 설계하는 싸움이 되었음을 명확히 보여주었다.

 

Google은 이제 AI를 통해 다음과 같은 시스템을 제공한다.

  • 전 지구적 네트워크와 연산 인프라 (Cloud WAN, TPU Ironwood)
  • 실행과 추론까지 가능한 AI 운영 환경 (GKE, Pathways)
  • 도메인별 특화 에이전트와 생태계

그러니까, AI 모델뿐 아니라, AI를 “도입 → 실행 → 확장”하는 전체 스택을 완성해가고 있다는 의미이다.

 

✍️ 우리가 얻어야 할 인사이트

  • 기업은 이제 ‘모델만 좋으면 된다’는 시대를 벗어나야 한다.
  • 실시간, 안전한 운영을 위한 AI 기반 시스템 구성 능력이 핵심이다.
  • AI는 더 이상 도구가 아니라, 조직의 구성원 역할을 하게 될 것이다.

이제는 “모델이 좋다”가 아닌, “시스템 전체가 잘 작동하느냐”가 기업의 핵심 경쟁력이 될 것이다.

 

[원본 영상] Everything Announced at Google Cloud Next in 12 Minutes

 

AI 강의 자세히 보러가기 ↓

 

Facebook Comments