디지털서비스 이용지원시스템

자료실

[2025-04] 디지털서비스 이슈리포트 02 구글 클라우드 넥스트에 등장한 AI 기술들 게시글 정보입니다.
2025.04.30 (수정 : 2025.04.30)
[2025-04] 디지털서비스 이슈리포트 02 구글 클라우드 넥스트에 등장한 AI 기술들

02 구글 클라우드 넥스트에 등장한 AI 기술들

│한상기 테크프론티어 대표

구글이 매년 개최하는 클라우드 넥스트는 원래 구글의 클라우드 신기술과 제품을 발표하는 이벤트이지만, 올해는 AI 기술이 모두의 관심을 끌었다. 올해는 4월 22일부터 24일까지 라스베이거스의 만달레이 베이 컨벤션 센터에서 3일 동안 개최했다. 

그림 1 구글 클라우드 넥스트 2025 모습 [출처: 구글 블로그]

10개 이상의 기조연설과 스포트라이트, 700개 이상의 세션, 그리고 350개 이상의 스폰서 파트너가 함께 한 행사에서는 AI 혁신, 데이터 클라우드, 최신 인프라, 보안, 구글 워크스페이스 등 다양한 분야에 대한 새로운 발표와 실무 학습 세션이 있었다. 특히 올해는 에이전트와 관련한 신기술 발표가 많았다. AI 핵심 모델이나 새로운 기기 등은 5월에 열리는 구글 I/O에서 발표할 것이다. 

토마스 쿠리안이 한 오프닝 기조연설에서 밝힌 내용은 다음과 같다. 1)

  • 제미나이를 사용하는 개발자는 400만 명이 넘었고, 버텍스 AI 사용량도 20배 증가했다.

  • 구글 워크스페이스에서는 비즈니스 사용자를 대상으로 매달 20억 건 이상의 AI 지원이 이루어지고 있다.

  • 이번 넥스트에서는 500개 이상의 고객 사례를 소개할 것이다.

  • 이어 등장한 CEO 순다 피차이는 7세대 TPU 아이언 우드를 소개했다. 아이언 우드는 2025년 말에 출시할 예정이다.

  • 제미나이 2.5 프로는 이제 AI 스튜디오, 버텍스 AI 및 제미나이 앱을 사용하는 모든 사용자가 사용할 수 있다. 또한 낮은 지연 시간과 비용 효율적인 모델인 제미나이 2.5 플래시를 공개했다. 

  • 구글 클라우드는 선도적인 가격, 성능, 정밀도, 품질을 갖춘 AI 최적화 플랫폼이다.

  • 멀티 에이전트 시스템을 구축하고 관리하는 데 필요한 모든 것이 새롭게 추가되었다.

  • 구글 클라우드는 기존 IT 환경에 연결하면서 AI 에이전트를 도입할 수 있는 개방형 멀티클라우드 플랫폼을 제공한다. 

  • 구글 클라우드는 상호 운용성을 위해 구축된 기업용 AI 플랫폼을 제공한다.

  • 애니웨어 캐쉬(Anywhere Cache) 클라우드 스토리지는 데이터를 가속기에 가까운 곳에 저장해 저장 지연 시간을 최대 70%까지 개선하고 학습 시간을 단축한다.

  • 구글 분산 클라우드에서 제미나이를 로컬에서 실행할 수 있다. 이에는 엔비디아가 파트너 역할을 한다.

  • 버텍스 AI는 모델 가든을 통해 200개 이상 선별된 파운데이션 모델에 쉽게 접근할 수 있다. 

  • 작년에 발표한 버텍스 AI 에이전트 빌더에 이어 이번에는 새로운 에이전트 개발 키트를 공개한다. 멀티 에이전트 시스템을 구축하는 과정을 단순화하는 새로운 오픈소스 프레임워크이다. 에이전트 개발 키트는 MCP를 지원하며, 모델이나 프레임워크에 관계없이 에이전트 간의 통신을 위한 에이전트2에이전트(A2A)를 발표한다.

  • 인간과 유사한 음성, 이해력, 감정 이해 능력을 갖고 있는 고객 인게이지먼트 스위트를 소개한다.

  • 미디어 제작, 마케팅, 광고, 디자인 등 크리에이티브 팀에 강력한 힘을 실어주는 크리에이티브 에이전트들이 있다. 베오 2(Veo 2)는 라스베이거스의 스피어에서 ‘오즈의 마법사’를 더욱 풍성하게 만들어줬다. 

  • 소프트웨어 개발 라이프사이클 전체를 지원하는 새로운 제미나이 코드 어시스트 에이전트를 발표한다.

  • 융합 보안 솔루션으로는 구글 유니파이드 시큐리티가 있다. 보안에 관한 모든 기능에 AI 기능을 활용했다.

한 마디로 모든 이야기는 에이전트이다. 이제 클라우드 기능은 모두 자율적인 에이전트를 통해서 지원하고 구동하겠다는 의지가 보인다. 이번에 발표한 에이전트 관련 기술을 중심으로 몇 가지 내용을 살펴보고자 한다.

에이전트 스페이스

구글은 에이전트 생성 및 도입을 더욱 간편하게 하기 위해 작년 12월에 발표한 에이전트스페이스 (Agentspace)에 여러 업데이트가 있었다.2) 크롬 검색창에서 바로 에이전트스페이스의 통합 엔터프라이즈 검색, 분석 및 합성 기능에 액세스할 수 있다. 또한 누구나 자신의 워크플로 및 요구 사항에 맞는 맞춤형 에이전트를 생성할 수 있도록 코드 없이 사용할 수 있는 새로운 에이전트 디자이너(Agent Designer)를 추가했다. 추가로 자체 제작한 두 가지 전문가용 에이전트인 딥 리서치와 아이디어 제너레이션을 제공한다.


그림 2 에이전트스페이스의 기본 구성

에이전트스페이스는 이미 방코 BV, 코헤시티, 고든 푸드 서비스, KPMG, 루브릭, 웰스 파고 등 리딩 기업이 활용하고 있다. 에이전트스페이스를 통해 직원과 에이전트는 조직 전반의 정보를 찾고, 제미나이의 멀티모달 인텔리전스를 통해 이를 종합하고 이해하며, AI 에이전트를 통해 필요한 조치를 취할 수 있다. 이번에 추가한 기능은 다음과 같다.

  • 1.크롬 검색 상자에서 직접 에이전트스페이스의 통합 엔터프라이즈 검색, 분석 및 합성 기능에 대한 액세스 권한을 직원에게 제공한다.

  • 2.에이전트 갤러리를 사용하여 에이전트를 빠르고 쉽게 발견하고 채택하고, 코드 없이 새로운 에이전트 디자이너를 사용해 에이전트를 생성한다.

  • 3.새로운 심층 연구 및 아이디어 생성 에이전트와 같은 구글에서 구축한 에이전트를 배포하여 직원들이 새로운 비즈니스 아이디어를 생성하고 검증하고, 방대한 정보를 종합하는 등의 작업을 지원할 수 있다.

에이전트2에이전트(A2A) 프로토콜

서로 다른 생태계의 에이전트들이 서로 소통할 수 있도록 설계한 개방형 프로토콜이다.3) 구글은 이 프로토콜이 에이전트들이 어떤 프레임워크나 벤더를 기반으로 구축되었는 지와 관계없이 공통 언어를 제공함으로써 다중 에이전트 소통을 지원하는 데 중요한 역할을 할 것이라고 확신한다. 

이번 발표에는 아틀라시안, 코히어, 랭체인, 몽고DB 등 50개 이상의 기술 파트너와 액센츄어, BCG, 캡제미나이, 딜로이트, 맥킨지, PwC 등 주요 서비스 제공업체의 지원과 기여를 바탕으로 만들었다고 한다. 

그림 3 A2A 프로토콜 개발에 참여한 파트너사들 [출처: 구글]

A2A 프로토콜은 AI 에이전트가 다양한 엔터프라이즈 플랫폼이나 애플리케이션 상에서 서로 통신하고, 안전하게 정보를 교환하고, 작업을 조정할 수 있도록 지원한다. A2A는 에이전트에게 유용한 도구와 컨텍스트를 제공하는 앤스로픽의 모델 컨텍스트 프로토콜(MCP)을 보완하는 개방형 프로토콜이다.

아래 그림은 엑스에 올라온 A2A와 MCP의 관계를 보여주는 그림이다. A2A는 개발자가 프로토콜을 사용하여 구축된 다른 모든 에이전트와 연결할 수 있는 에이전트를 구축할 수 있도록 지원하고, 사용자는 다양한 공급업체의 에이전트를 자유롭게 조합할 수 있다. 이번 발표에서 AI 커뮤니티가 가장 환호한 기술이 이 A2A일 것이다. 

그림 4 A2A와 MCP 관계 [출처: 엑스의 Aurimas Griciūnas 트윗]

A2A 디자인 원칙은 다음과 같이 다섯 가지가 있다.

  • 에이전트 기능 활용 : A2A는 에이전트들이 기억, 도구, 맥락을 공유하지 않더라도 자연스럽고 비정형적인 방식으로 협업할 수 있도록 지원하는 데 중점을 둔다. 에이전트를 "도구"에 국한하지 않고 진정한 다중 에이전트 시나리오를 구현한다.

  • 기존 표준을 기반으로 구축 : 이 프로토콜은 HTTP, SSE, JSON-RPC를 비롯한 기존의 인기 있는 표준을 기반으로 구축했다. 즉, 기업에서 이미 매일 사용하는 기존 IT 스택과 통합하기가 더 쉽다.

  • 기본적으로 안전함 : A2A는 출시 시점부터 OpenAPI의 인증 체계와 동등하게 엔터프라이즈급 인증 및 권한 부여를 지원하도록 설계했다.

  • 장기 실행 작업 지원 : A2A는 유연하게 설계되어 빠른 작업부터 사람이 직접 처리해야 하는 심층적인 조사까지, 몇 시간 또는 며칠이 걸릴 수 있는 모든 작업을 완벽하게 처리할 수 있는 환경을 지원한다. 이 모든 과정에서 A2A는 사용자에게 실시간 피드백, 알림 및 상태 업데이트를 제공할 수 있다.

  • 모달리티에 구애받지 않음 : 에이전트 세계는 텍스트에만 국한되지 않는다. 따라서 오디오 및 비디오 스트리밍을 포함한 다양한 모달리티를 지원하도록 A2A를 설계했다.

A2A가 에이전트 간 상호 작용을 하는 데에는 몇 가지 핵심 기능이 있다. 

  • 역량 검색 : 에이전트는 JSON 형식의 "에이전트 카드"를 사용하여 자신의 역량을 광고할 수 있으며, 이를 통해 클라이언트 에이전트는 작업을 수행할 수 있는 가장 적합한 에이전트를 식별하고 A2A를 활용하여 원격 에이전트와 통신할 수 있다.

  • 작업 관리 : 클라이언트와 원격 에이전트 간의 통신은 작업 완료를 지향하며, 에이전트는 최종 사용자 요청을 처리한다. 이 "작업" 객체는 프로토콜에 의해 정의되며 수명 주기를 갖는다. 즉시 완료될 수도 있고, 장기 실행 작업의 경우 각 에이전트가 서로 통신하여 작업 완료의 최신 상태를 유지할 수 있다. 작업의 출력은 "아티팩트"라고 한다.

  • 협업 : 에이전트는 서로에게 메시지를 보내 컨텍스트, 답변, 아티팩트 또는 사용자 지침을 전달할 수 있다.

  • 사용자 경험 협상 : 각 메시지에는 생성된 이미지와 같이 완전히 구성된 콘텐츠인 "파트"를 포함한다. 각 파트에는 지정된 콘텐츠 유형이 있어 클라이언트와 원격 에이전트가 필요한 올바른 형식을 협상하고 사용자의 UI 기능(예: iframe, 비디오, 웹 양식 등)에 대한 협상을 명시적으로 포함할 수 있다.

7세대 TPU 칩 아이언우드(Ironwood)

이번에 발표한 아이언우드 칩은 지금까지 구글이 발표한 칩 가운데 가장 강력하고 성능이 뛰어나며 에너지 효율성이 뛰어난 TPU로, 대규모로 사고, 추론 AI 모델을 구동하도록 설계했다.4) 10년 넘게 TPU는 구글의 가장 까다로운 AI 학습 및 서비스 워크로드를 지원해 왔으며, 클라우드 고객들도 동일한 작업을 수행할 수 있도록 지원했다. 

최대 9,216개의 수냉식 칩을 혁신적인 ICI(Inter-Chip Interconnect) 네트워킹으로 연결하여 최대 10MW까지 확장할 수 있다. 개발자는 구글 딥마인드에서 개발한 자체 패스웨이즈(Pathways) 소프트웨어 스택을 활용하여 수만 개의 아이언우드 TPU가 결합한 컴퓨팅 성능을 안정적이고 쉽게 활용할 수 있다. 포드당 9,216개의 칩으로 확장하여 총 42.5엑사플롭스의 성능을 제공하는 아이언우드는 세계 최대 슈퍼컴퓨터인 엘 캐피탄(El Capitan)보다 24배 이상의 컴퓨팅 성능을 지원한다. 구글 클라우드 고객의 경우 아이언우드를 AI 워크로드 수요에 따라 256개 칩 구성과 9,216개 칩 구성의 두 가지 크기로 제공한다. 

그림 5 아이언우드과 과거 TPU 성능 비교

고급 순위 및 추천 워크로드에서 흔히 사용되는 초대형 임베딩 처리를 위한 특수 가속기인 향상된 스파스코어(SparseCore)를 제공한다. 아이언우드의 확장된 스파스코어 지원을 통해 기존 AI 분야를 넘어 금융 및 과학 분야까지 다양한 워크로드를 가속화할 수 있다. 

머신 러닝 런타임인 패스웨이즈는 여러 TPU 칩에 걸친 효율적인 분산 컴퓨팅을 지원한다. 단일 아이언우드 포드를 넘어 수십만 개의 아이언우드 칩을 결합해 AI 컴퓨팅의 경계를 빠르게 확장할 수 있도록 지원한다.

아이언우드의 주요 기능은 다음과 같다.

  • 전력 효율성에 집중하는 동시에 상당한 성능 향상을 이루어 AI 워크로드를 더욱 비용 효율적으로 실행할 수 있도록 지원한다. 아이언우드의 와트당 성능은 작년에 출시한 6세대 TPU인 트릴리움(Trillium)보다 2배 높다. 아이언우드는 고객 워크로드에 훨씬 더 많은 와트당 용량을 제공하며, 고급 수랭 솔루션과 최적화된 칩 설계는 지속적으로 발생하는 고부하 AI 워크로드에서도 표준 공냉 방식보다 최대 2배 높은 성능을 안정적으로 유지할 수 있다. 

  • 고대역폭 메모리(HBM) 용량이 대폭 증가했다. 아이언우드는 칩당 192GB를 제공하며, 이는 트릴리움의 6배에 달하는 용량으로, 더 큰 모델과 데이터세트 처리가 가능하여 잦은 데이터 전송의 필요성을 줄이고 성능을 향상시킨다.

  • HBM 대역폭이 대폭 향상되어 칩당 7.37TB/s에 달하며, 트릴리움의 4.5배에 해당한다. 이처럼 높은 대역폭은 최신 AI에서 흔히 발생하는 메모리 집약적인 워크로드에 필수적인 빠른 데이터 액세스를 보장한다.

  • 향상된 칩 간 상호 연결(ICI) 대역폭을 제공한다. 양방향 1.2TBps로 향상되었으며, 이는 트릴리움보다 1.5배 빠른 속도입니다. 이를 통해 칩 간 통신 속도가 빨라지고 효율적인 분산 학습 및 대규모 추론이 가능하다.

맺는말

이번 구글 클라우드 넥스트 행사는 클라우드 행사가 이제 대부분 AI 기술을 이야기하는 행사가 되었으며 특히 에이전트 컴퓨팅을 위해 구글이 클라우드의 많은 기능을 에이전트 구성과 관리, 운영 지원에 초점을 맞춰가고 있음을 알 수 있다. 최근 마이크로소프트도 이 주제에 몰입하는 모습을 보이고 있는데 2025년은 누구나 에이전트 컴퓨팅 시대라고 할 것이다.

최근 많은 전문가들은 AI 기술의 최종 승자는 구글이 될 것이라는 예측을 내놓고 있는데, 딥마인드를 중심으로 내놓고 있는 모델의 성능이 대부분 다른 모델을 능가하고 있으며, 클라우드 영역에서도 AI 에이전트를 위한 컴포넌트 기술 진화 모습이 눈에 띄고, TPU까지 포함해서 토탈 솔루션을 만들어 가고 있기 때문이다.


참고문헌

1) 기존 연설의 요약 영상은 여기에서 볼 수 있다.https://www.youtube.com/watch?v=dwgmfSOZNoQ&ab_channel=GoogleCloud 

2) Google Cloud Blog, “Scale enterprise search and agent adoption with Google Agentspace,” Apr 10, 2025

3) Google for Developers, “Announcing the Agent2Agent Protocol(A2A), Apr 9, 2025

4) Google Cloud Blog, “Ironwood: The first Google TPU for the age of inference,” Apr 9, 2025


프로세스가 진행중입니다. 잠시만 기다려주세요.