‘세계로 향하는 건국대’ 발전 위한 새 주춧돌 놓였다
건국대학교(총장 원종필)는 미국 캘리포니아주 부에나 파크 애너하임 힐튼 호텔(Hilton Buena Park Anaheim)에서 ‘건국국제재단’ 창립 행사를 22일(현지시간 기준) 개최했다고 밝혔다. 건국국제재단은 미주 지역 건국대 동문들의 뜻을 모아 설립된 단체로, 해외 동문 네트워크를 활성화하고 건국대의 글로벌 발전을 지원하기 위해 출범했다. 행사에는 원종필 건국대 총장과 이중열 건국국제재단 초대 이사장, 정동현(마크 정) 건국대 남가주동문회 회장, 엄기홍 건국대 남가주동문회 이사장 등 미주 지역 주요 동문이 참석했다. 윤만 오
네이버클라우드가 글로벌 수준의 AI 인프라 기술 역량을 기반으로 국내 AI 산업의 기반 확충과 GPUaaS(GPU as a Service) 시대를 선도하겠다는 청사진을 제시했다.
네이버클라우드는 28일 세종시에 위치한 국내 최초 AI 데이터센터 `각 세종`에서 열린 테크 밋업(Tech Meetup) 행사에서 GPU 운영 효율을 극대화하고, AI 인프라를 자체 설계 · 운영할 수 있는 풀스택(Full-Stack) AI 인프라 기술을 공개했다.
네이버클라우드(대표 김유원)는 28일 세종시에 위치한 국내 최초 AI 데이터센터 ‘각 세종’에서 열린 테크 밋업(Tech Meetup) 행사에서 GPU 운영 효율을 극대화하고, AI 인프라를 자체 설계·운영할 수 있는 풀스택(Full-Stack) AI 인프라 기술을 공개했다고 밝혔다. 이번 발표는 AI 인프라의 단순한 GPU 확보 경쟁을 넘어, ‘운영 효율’ 중심의 글로벌 수준 운영 역량을 강조한 자리였다.
네이버클라우드 이상준 CIO는 “AI 인프라의 경쟁력은 GPU의 양이 아니라 확보한 자원을 얼마나 안정적이고 효율적으로 운용하느냐에 달려 있다”며 “네이버는 GPU 확보와 운영 기술 내재화를 동시에 실현해 AI 인프라 경쟁력을 완성했다”고 밝혔다.
네이버는 2019년 엔비디아의 슈퍼컴퓨팅 인프라 ‘슈퍼팟(SuperPod)’을 세계에서 가장 빠르게 상용화한 경험을 바탕으로, ‘각 세종’ 내 대규모 GPU 클러스터를 직접 설계·운영 중이다. 전력, 냉각, 네트워크 등 핵심 인프라를 모두 자체 설계하고, AI 워크로드에 최적화된 기술을 내재화해 글로벌 수준의 AI 데이터센터로 발전시켰다.
‘각 세종’은 단순한 데이터 저장소가 아니라 AI 학습과 추론이 동시에 이뤄지는 고밀도 GPU 연산 공간으로 설계됐다. 이를 위해 네이버는 전력·냉각 효율과 무정지 운영 체계를 모두 고려해 AI 인프라의 24시간 안정적 운영 환경을 구축했다.
특히 ‘각 세종’에는 직접외기·간접외기·냉수 병행형 하이브리드 냉각 시스템이 적용됐다. 계절과 온도 변화에 따라 자동으로 냉각 방식을 전환해, 겨울철에는 외기를 직접 활용하고 여름에는 냉수 및 간접외기를 병행함으로써 GPU 고밀도 환경에서도 안정적 열 제어와 높은 에너지 효율을 확보했다. 또한 액침냉각(In-immersion Cooling) 컨테이너 인프라도 구축해 차세대 냉각 기술 로드맵을 구체화했으며, 관련 수냉식 서버 냉각 기술에 대한 특허 출원도 완료했다.
‘각 세종’은 장애 상황에서도 중단 없이 운영될 수 있도록 Active-Active 구조로 설계됐다. 전력·냉각·서버 운용 체계를 분리하면서도 유기적으로 통합해, 고전력 GPU 서버에서도 장애 전파를 원천 차단했다. 모든 서버는 도입 전 단계에서 성능·전력 효율을 검증받은 표준 사양으로 구성되며, GPU 자원은 자동 감시·복구 시스템을 통해 실시간 안정성을 유지한다.
GPU 클러스터 운영에는 자원 배치·복구·확장 기능을 자동화한 관리 기술이 적용되어 대규모 환경에서도 일관된 효율과 성능을 제공한다. 네이버는 이러한 운영 기술을 데이터센터 전반으로 확장해, 복잡한 AI 워크로드에서도 예측 가능한 운영을 실현하고 있다.
이 기반 위에서 네이버의 AI 플랫폼은 모델 개발·학습·추론·서빙 전 과정을 하나로 통합 관리하는 시스템으로 작동한다. 내부적으로는 초대규모 언어모델 ‘하이퍼클로바(HyperCLOVA)’ 의 학습과 운영이 모두 이 플랫폼에서 이뤄지며, GPU 자원 배분과 모델 관리, 스케줄링까지 통합적으로 제어된다.
이상준 CIO는 “네이버클라우드는 AI 인프라 운영 기술을 GPUaaS 모델로 발전시켜 국내 기업들이 손쉽게 AI를 활용할 수 있는 생태계를 구축하겠다”며 “AI 인프라가 특정 기업의 경쟁 자산을 넘어 산업 전반의 성장 기반이 될 수 있도록 기여하겠다”고 밝혔다.
네이버클라우드는 이번 행사를 통해 AI 인프라를 ‘스스로 설계하고 운영하는 자립형 구조’ 로 구현했음을 입증하며, GPUaaS 사업 모델을 중심으로 산업별 맞춤형 AI 인프라 서비스를 확대할 계획이다.