서울 리전에서 AI 워크로드 처리 및 고객 데이터를 저장할 수 있는 신규 데이터 레지던시 서비스 출시
개인 및 조직의 AI 역량 강화를 위한 교육 리소스 제공해 국내 기업의 대규모 혁신 가속화 지원
구글 클라우드는 8일 서울 강남구 코엑스(COEX) 컨벤션 센터에서 ‘구글 클라우드 데이 서울(Google Cloud Day Seoul)’을 개최하고 국내 기업의 성장과 혁신을 지원하는 자사의 인공지능(AI) 비전을 선보였다.
이번 행사에 국내 비즈니스 리더, IT 전문가, 개발자 등이 한자리에 모여 구글 클라우드의 강력한 AI 인프라, 맞춤형 칩, 생성형 AI 모델, 완전 통합형 개발 플랫폼을 살펴보고, 모든 규모의 기업이 성공을 거둘 수 있는 방안을 모색했다. 또한 구글 클라우드와 함께 AI 트랜스포메이션을 이끌고 있는 국내 주요 산업의 기업 및 AI 스타트업이 참여해 생성형 AI 활용과 성공 사례를 공유했다.
이날 오전에 진행된 미디어 브리핑에는 최근 국내에서 가장 주목받고 있는 AI 스타트업 뤼튼테크놀로지스가 함께 자리했다. 유영준 뤼튼테크놀로지스 최고운영책임자(COO)는 최근 AI 검색, 생산성 도구, 개인화된 AI 기능을 강화해 출시한 ‘뤼튼 3.0’ 서비스를 소개하며, “새로운 서비스에 쓰일 거대언어모델(LLM)은 좋은 성능과 합리적인 가격, 높은 안정성 등 여러 기준을 만족해야 했다. 제미나이 2.5(Gemini 2.5) 모델군은 뤼튼 자체 테스트 결과 그 기준을 충족했고, 현재 다양한 여러 LLM들과 함께 서비스 내 적재적소에서 활용되고 있다”고 밝혔다.
이 외에도 놀유니버스, LG유플러스, NC AI, 카카오모빌리티, 매스프레소 등이 구글 클라우드 데이 서울의 AI 체험 공간 ‘제미나이 플레이그라운드(Gemini Playground)’에서 부스를 통해 현장 관람객들과 소통하며 다양한 산업에 도입된 생성형 AI 협업 사례를 소개했다.
지기성 구글 클라우드 코리아 사장은 “AI가 불러온 혁신의 물결은 더욱 빨라지고 있다. 올해도 AI는 끊임없이 진화하며 기업이 비즈니스를 운영하고, 경쟁하며, 혁신하는 방식을 근본적으로 변화시킬 것”이라고 설명하며 “구글 클라우드는 기업에 모델, 하드웨어와 함께 개방적이며 상호운용성을 갖춘 소프트웨어 도구 및 플랫폼을 제공해 멀티 에이전트 시스템을 구축할 수 있도록 지원한다. 오직 구글 클라우드만 제공 가능한 ‘선택의 힘’을 고객에게 선사함으로써, 다양한 산업의 조직이 혁신을 가속화하고 효율성을 높이며 탁월한 고객 경험을 창출하도록 적극 지원하겠다”고 말했다.
한국 기업과 함께 성장해 온 구글 클라우드 서울 리전 5주년
구글 클라우드는 2020년 구글 클라우드 서울 리전(Seoul region; 이하 서울 리전)을 설립한 이후 지난 5년간 고객 수요를 충족하기 위해 한국에서의 컴퓨팅 역량을 지속적으로 확장해 왔다. 이를 통해 더 많은 국내 기업이 클라우드 기반 엔터프라이즈 AI 기능을 활용해 새로운 경쟁 우위를 확보하고, 직원들의 생산성을 향상하며, 공공 서비스를 개선할 수 있도록 지원 중이다.
서울 리전은 국내에 위치한 상호 연결된 대용량 인프라로 구성돼 있으며 서버, 실리콘 칩, 저장 장치, 네트워크 장비 등을 갖추고 있다. 서울 리전은 구글 클라우드의 고성능 서비스를 제공하는 물리적 인프라 역할을 수행하며, 기업의 시스템과 애플리케이션의 가용성, 보안 및 접근성을 보장하는 중추 역할을 담당한다.
서울 리전은 전 세계적 규모의 구글 프라이빗 네트워크와도 연결돼 있어, 고대역폭과 제로에 가까운 지연 시간을 자랑한다. 구글의 프라이빗 네트워크는 200개 이상의 국가 및 지역에 걸쳐 200만 마일 이상의 광케이블(지상 및 해저 케이블)로 구성돼, AI 기반 미래를 위한 탄력적인 글로벌 인프라를 제공한다.
추론 시대에 최적화된 AI 하드웨어를 위한 지속적인 혁신
구글 클라우드는 고객의 가장 까다로운 AI 워크로드를 지원할 수 있도록 최적화된 성능의 새로운 하드웨어를 지속적으로 선보이고 있다. TPU는 10년 넘게 구글의 AI 학습 및 워크로드 처리를 지원해 왔으며, 구글 클라우드 고객에게도 동일한 성능과 혁신을 제공한다.
구글 클라우드는 지난 4월 넥스트(Google Cloud Next 2025) 행사에서 구글의 7세대 텐서처리장치(TPU)이자, 대규모 AI 추론을 위해 특별히 설계된 최초의 TPU 가속기인 아이언우드(Ironwood)를 공개했다. 아이언우드는 구글 TPU 중 가장 강력하고 뛰어난 성능을 제공하는 에너지 효율적인 모델로, 조만간 정식 버전으로 출시될 예정이다.
지기성 구글 클라우드 코리아 사장은 “아이언우드의 등장은 AI 발전과 이를 뒷받침하는 인프라에 있어 중요한 변화를 의미한다. 사람이 해석해야 할 정보를 실시간으로 제공하는 반응형 AI 모델에서, 해석과 인사이트를 선제적으로 생성하는 모델로 전환되는 ‘추론의 시대’가 온 것”이라고 설명하며, “단순한 데이터를 넘어, AI 에이전트가 서로 협력해 인사이트가 담긴 답변을 먼저 검색하고 생성하는 시대가 왔다. 제미나이 2.5 모델을 비롯해 노벨상을 수상한 알파폴드(AlphaFold)와 같은 선도적인 사고 모델들이 TPU에서 실행되고 있다. 아이언우드를 통해 국내 개발자와 민간 및 공공 부문 조직이 이뤄낼 AI 혁신이 기대된다”고 답했다.
구글 클라우드 서울 리전, 신규 데이터 레지던시 서비스 확장
구글 클라우드는 버텍스 AI(Vertex AI)를 통해 구글 딥마인드의 최신 AI 모델 연구 혁신을 국내 기업에 제공하고 있다. 특히 구글의 최신 AI 모델인 제미나이 2.5(Gemini 2.5) 모델군은 각 모델별로 사고 예산(thinking budget)을 제어하고 개발자가 응답 생성 전 모델의 사고 시간과 처리량을 선택할 수 있어, 비용과 속도 간 파레토 효율을 달성한다.
오늘날 많은 기업이 생성형 AI 활용 노력을 극대화하면서, 데이터 저장 이외에도 머신러닝 처리 위치까지 제어할 수 있는 권한에 대한 요구 또한 높아지고 있다. 구글 클라우드는 이날 행사에서 기존의 데이터 저장 위치 제어에 더해, 머신러닝 처리 작업까지 국내에서 수행할 수 있는 새로운 옵션을 발표했다. 특히 이 옵션은 머신러닝 처리 위치에 대한 규제준수 요건을 가진 기업이 구글의 최신 LLM인 제미나이 2.5 플래시를 국내에서 활용할 수 있도록 지원한다.
기업에 제공하는 데이터 레지던시 옵션은 다음과 같다.
· 저장 상태인 데이터(Data residency at-rest): 구글 클라우드는 당사의 클라우드 위치 페이지(Cloud Locations Page) 및 서비스별 약관에 명시된 내용에 따라 고객 데이터가 고객이 지정한 특정 지리적 위치에만 저장되도록 보장한다.
· 머신러닝 처리 작업 중인 데이터(Data residency during ML processing): 구글 클라우드는 고객 데이터의 머신러닝 처리 작업이 데이터가 저장된 곳과 동일한 특정 리전 또는 멀티 리전 내에서만 이루어지도록 보장한다. 이는 추론 및 결과물 생성 이전에 발생하는 모든 머신러닝 처리를 포함한다.
국내 기업을 위한 클라우드 선택권 및 보안 강화
속도와 성능만큼 기업에 중요한 것은 데이터를 통제하고 운영하는 위치를 선택할 수 있는 능력이다. 이러한 필요성을 충족할 수 있도록 구글 클라우드는 고객에게 소버린 클라우드에 대한 포괄적인 선택권을 제공한다.
구글 클라우드 데이터 바운더리(Google Cloud Data Boundary)는 고객이 신뢰할 수 있는 데이터 경계를 설정하고, 데이터가 저장되고 처리되는 위치를 제어할 수 있는 기능을 제공한다. 또한 고객은 시장이 요구하는 데이터 접근 및 제어 사항을 충족할 수 있도록 구글 인프라 밖에서 암호화 키를 저장하고 관리할 수 있다.
구글 분산형 클라우드 에어갭(Google Distributed Cloud Air-gapped)은 엄격한 데이터 보안 및 레지던시 요건을 지닌 규제 산업 고객들을 위한 맞춤형 솔루션으로, 구글 클라우드의 특정 서비스를 고객의 데이터센터 안에서 운영할 수 있도록 지원한다. 구글 분산형 클라우드 에어갭은 오직 고객이 선택한 환경 안에서만 작동하기 때문에 구글 클라우드 리전이나 공용 인터넷에 연결할 필요가 없다. 이를 통해 고객은 데이터, 운영, 소프트웨어를 전적으로 한국 안에서 통제할 수 있다.
구글 클라우드의 완전 통합형 AI 기술 스택
· 완전 관리형 AI 최적화 인프라
- 구글 클라우드 TPU(Tensor Processing Units, 텐서처리장치) 및 엔비디아 GPU(Graphics Processing Units, 그래픽처리장치)와 같은 특수 고성능 하드웨어를 구글 쿠버네티스 엔진(Google Kubernetes Engine)과 같은 오픈소스 기반 오케스트레이션 소프트웨어와 결합
- 기업이 복잡한 AI 모델을 대규모로 더 빠르게, 에너지와 비용을 효율적으로 학습하고 서비스할 수 있도록 지원
· 버텍스 AI(Vertex AI)
- 기업이 AI 모델을 쉽게 커스터마이즈하고 애플리케이션에 통합할 수 있는 올인원 AI 개발 플랫폼으로, 프로그래밍 전문 지식이 없는 사용자도 여러 AI 에이전트를 생성하고 배포할 수 있는 인터페이스 포함
- 구글의 제미나이 모델, 앤트로픽(Anthropic)의 클로드(Claude) 모델, 메타(Meta)의 라마(Llama) 모델, 딥시크(DeepSeek)의 모델 등 200개 이상의 모델 유형과 크기를 모델 가든(Model Garden)에서 제공
- 기업은 가장 필요한 모델을 유연하게 선택하고 콘텐츠 필터(content filters) 및 그라운딩(grounding) 기능으로 모델을 조정해 안전하고 신뢰할 수 있는 응답 제공
· 빅쿼리(BigQuery)
- 기업이 데이터베이스, 이미지, 문서, 동영상에서 캡처한 정보와 같은 멀티 모달 데이터를 보다 쉽게 구성하고 관리할 수 있도록 지원하는 통합 데이터 AI 플랫폼
- 통합 데이터를 활용해 AI 모델 학습 및 그라운딩에 필요한 기반 제공
· 제미나이 코드 어시스트(Gemini Code Assist)
- 개발자에게 개인화된 코딩 제안 및 도움을 줄 수 있는 대화형 AI 기반 도구로 디지털 애플리케이션 개발 가속화
<저작권자 ⓒ 더뉴스프라임, 무단 전재 및 재배포 금지>
박현아 기자 다른기사보기