배너
닫기
배너

“도심형 AI 데이터 인프라 시대” STT GDC가 제시한 ‘가산’형 데이터센터 카드 [헬로즈업]

URL복사

생성형 AI(Generative AI) 확산세가 ‘인공지능 (AI) 모델 성능 경쟁’에서 ‘인프라(Infrastructure) 경쟁’으로 이동하고 있다. 문자(Text) 중심 서비스만으로도 AI 연산 수요는 이미 임계점에 도달했다. 여기에 로보틱스와 피지컬 AI(Physical AI)가 본격화되면서 수요의 질적 변화가 일어나는 상황이 핵심 배경으로 꼽힌다.

 

구체적으로 ▲로봇의 시각·센서·기록 데이터 ▲디지털 트윈(Digital Twin) 기반 시뮬레이션 ▲현장 추론 및 제어 수요가 동시에 급증하고 있다. 이에 따라 데이터 적재량은 늘고 이동 속도는 빨라져야 하며, 처리 지연 시간(Latency)은 극도로 낮아져야 하는 과제에 직면했다.

 

업계는 이러한 변화를 ‘수요 폭발’과 ‘공급 지연’의 프레임으로 규정하고 있다. AI 지출 확대, 에이전틱 AI(Agentic AI) 및 AI 서비스형 소프트웨어(SaaS) 시장 성장, 연간 데이터 생성량 급증 추세 등이 동시에 맞물리고 있기 때문이다.

 

 

이 과정에서 시장에서는 ‘AI 채택이 거시 경제의 펀더멘털(Fundamental)을 강화한다’는 메시지가 반복적으로 강조되는 모습이다. 이는 AI 도입이 산업 전반의 생산성을 높여 경제 기초 체력을 실질적으로 끌어올린다는 분석이다. 결과적으로 데이터센터는 AI 확산 자체를 가능케 하는 필수 기반 설비로 재정의되는 추세다.

 

전력 수요의 변화는 더욱 선명하게 확인된다. AI 워크로드가 데이터센터의 ‘서버 공간 임대(Colocation)’ 수요를 강력하게 견인하고 있으나, 인프라 공급은 그 속도를 따라가지 못한다는 것이 시장의 중론이다. 이에 따라 오는 2030년을 향한 수요 곡선 역시 가파르게 치솟을 것으로 업계는 내다보고 있다.

 

이러한 물리적 제약은 글로벌 업계에서도 2026년의 핵심 키워드로 부상하고 있다. 싱가포르 소재 데이터센터 운영 업체 ‘ST Telemedia Global Data Centres(이하 STT GDC)’는 이러한 흐름을 기술적 한계와의 싸움으로 규정한 바 있다.

 

다니엘 포인턴(Daniel Poynton) STT GDC 최고기술책임자(CTO)는 지난해 “그래픽처리장치(GPU) 기반 컴퓨팅이 전력 수요를 급증시켜 지역 전력망에 부담을 주고 있다”며 “수랭(Luquid Cooling) 등 기술 등을 통해 전력효율지수(PUE)를 1.1 수준까지 낮추는 사례가 증가하고 있다”고 언급했다.

 

이어 그는 “재생에너지 공급 제약과 규제 변화 속에서 각국 정부가 PUE 임계값 등 효율 요건을 인허가에 반영하는 흐름이 강해지고 있어, 전력 회사와의 장기적 협력이 사업의 전제 조건이 되고 있다”고 분석하기도 했다.

 

이 과정에서 로보틱스와 피지컬 AI는 데이터센터에 더욱 까다로운 조건을 요구하고 있다. 단적으로 로봇 학습(Learning), 비전(Vision) 모델 훈련, 시뮬레이션 등 과정은 높은 GPU 전력과 랙 밀도를 요구한다. 특히 이들 워크로드는 네트워크 지연(Latency) 시간과 안정성 자체가 핵심 ‘서비스수준협약(SLA)’이 될 만큼 까다로운 조건이 붙는다.

 

이에 따라 데이터센터는 저지연(Low-latency)을 보장하는 설비로 진화하고 있으며, 입지와 네트워크 연결 형태(Topology) 설계가 핵심 경쟁력으로 자리 잡고 있다.

 

“특정 산업군을 한정하기보다 고성능 GPU 클러스터 운영이 필요한 모든 AI·로보틱스 고객을 수용할 수 있도록 인프라 유연성을 확보하고 있으며, 랙당 최대 약 150kW 이상의 고밀도 GPU 랙을 수용하는 전력·냉각 확장 구조와 저지연 네트워크 패브릭을 적용했다”

 

STT GDC는 로보틱스와 피지컬 AI를 AI 인프라 수요가 급증할 핵심 영역으로 보고, 로봇 훈련(Teaching)과 시뮬레이션 등 워크로드를 안정적으로 지원하는 역량 확보에 집중하고 있다. 회사는 이를 위해 고밀도 전력 공급 체계와 데이터센터 예비설비(Redundancy) 규격인 ‘N+1’ 이상의 안정성 아키텍처를 도입했다고 설명했다.

 

이때 N+1은 시스템 가동에 필요한 최소 장비(N) 외에 예비 장비(+1)를 추가로 확보해, 특정 설비에 장애가 발생해도 서비스 중단 없이 운영되는 구조를 뜻한다.

 

이러한 시장 환경 속에서 사측 한국 지사 ‘STT GDC 코리아’는 이달 22일 국내 첫 ‘AI 맞춤형(AI-Ready)’ 데이터센터 운영 전략을 발표했다. 서울 금천구 가산동 소재의 이 신규 데이터센터는 ‘STT SEOUL 1(이하 서울원)’으로 명명됐다.

 

허철호 STT GDC 코리아 대표는 “AI 인프라는 단순한 부동산 임대가 아닌, AI 전체 워크로드를 구현하는 핵심 엔진이 돼야 한다”고 강조했다.

 

‘수도권 쏠림’ 가속화하는 인퍼런스 수요

 

 

허철호 대표가 이날 제시한 또 다른 핵심 키워드는 ‘추론(Inferencing)’이다. 그는 현재의 AI 수요를 엔터프라이즈·클라우드·인퍼런싱·트레이닝의 4대 축으로 분류하며, 향후 인퍼런스 비중이 커질수록 지연 시간(Latency)이 서비스 품질을 결정하는 결정적 척도가 될 것이라고 분석했다.

 

이는 데이터가 산업·사용자 거점과 멀어질수록 지연 시간이 늘어나기 때문에, 추론 수요가 급증할수록 데이터센터는 도심 인근에 위치해야 한다는 논리다.

 

허 대표는 “추론 단계에서 지연 시간은 매우 치명적인 요소”라며 “데이터센터와 주변 네트워크 환경이 AI 확산의 병목 구간이 되지 않도록, 사용자 접점인 수도권 내 인프라 확보가 더욱 중요해질 것”이라고 제언했다.

 

이날 전력 수급 문제도 비중 있게 다뤄졌다. 허철호 대표는 최근 젠슨 황(Jensen Huang) 엔비디아(NVIDIA) 최고경영책임자(CEO)가 언급한 ‘국내 26만 장 규모의 GPU 인프라 구축 시나리오’를 인용하며 구체적인 인프라 해법을 제시했다.

 

이는 지난해 아시아태평양 경제협력체(APEC) 정상회의 기간 중 한국의 AI 경쟁력 강화 방안으로 논의된 내용으로, 국가 차원의 AI 주권을 확보하려면 이를 뒷받침할 대규모 인프라 공급이 필수적이라는 점을 시사한다.

 

그는 “26만 장의 GPU가 실제로 가동되려면 최소 400~500메가와트(MW)급의 전력이 뒷받침되돼 한다”며 “결국 AI 주권은 이러한 막대한 전력과 고밀도 설비를 수용할 수 있는 데이터센터를 얼마나 확보하느냐에 달려 있다”고 언급했다.

 

실제로 이러한 인프라 부족은 국내 AI 산업의 현실적인 제약으로 다가오고 있다. 현재 국내 시장에서는 국가별 AI 주권을 뜻하는 ‘소버린 AI(Sovereign AI)’ 논의와 함께, 네이버·NHN클라우드·KT클라우드 등 주요 사업자들의 움직임이 가속화되고 있다. 이들의 수요가 심각한 전력난 및 수도권 입지 병목 현상과 맞물리고 있다는 인식이다.

 

그 결과로 나타나는 현상이 ‘수도권 집중’이다. 한국데이터센터연합회 자료에 따르면, 2024년 국내 보유 용량은 1.08GW 수준이며 오는 2029년까지 2.37GW 확보 계획이 수립돼 있다. AI 전력 수요가 본격화될 경우 수급 간극이 발생할 수 있다.

 

허 대표는 특히 글로벌 초대형 클라우드 사업자(Hyperscaler)들의 멀티 리전(Multi-Region) 전략과 국내 시장의 괴리에 주목했다. 그는 “글로벌 기업들이 안정성을 위해 거점을 분산 운영하고 있지만, 실질적인 서비스 수요의 90% 이상은 여전히 수도권에 집중돼 있다”고 지적했다. 이러한 국내 시장의 특수성으로 인해 초저지연을 보장하는 도심 인근 인프라 확보가 AI 비즈니스의 승부처가 될 것이라는 분석이다.

 

STT GDC는 사용자 규모와 보안 요구에 따라 코로케이션 서비스를 ‘랙(Rack)–케이지(Cage)–스위트(Suite)’ 단계로 세분화해 제공한다.

 

랙 단위는 유연한 확장성을 기반으로, 설비를 즉시 이용하는 모델이다. 케이지는 물리적 보안을 강화한 형태고, 스위트는 전용 공간을 물리적으로 분리해 독립된 보안 체계를 적용하는 주문 제작형 솔루션이다. 사측은 또한 데이터센터 냉각 효율을 극대화하는 ‘컨테인먼트(Containment) 시스템’을 통해 공기 흐름을 분리하는 서비스를 제공하고 있다.

 

“40MW 수전, 30MW IT 부하” 로드맵 본격 가동한 ‘서울원’

 

이 같은 시장 인식 위에서 STT GDC 코리아가 시장 대응의 실체로 제시한 카드가 바로 ‘서울원’이다. 이 데이터센터는 오는 2026년 6월 서비스를 개시할 예정이다. 이 가운데 특고압 수전 방식 표준 전압인 22.9kV의 주·예비 2회선 이중화 구조로 전력이 인입된다. 또한 최대 IT 부하는 30MW 규모로 설계된다.

 

 

양재석 STT GDC 코리아 운영센터장은 “서울원은 40MW 수전에 30MW IT 부하로 설계됐으며, 도심 입지 특성을 고려해 10층 높이의 하이라이즈(High-rise) 구조를 채택했다”고 밝혔다. 실제 전산실은 4층부터 8층까지 5개 층에 배치되며, 층당 약 6MW의 전력을 배분한다. 양 센터장은 2026년 6월 중순 서비스 개시 및 6월 말 서비스 개시 가능 상태(RFS)를 목표로 공사와 개념증명(PoC)를 진행 중이라고 덧붙였다.

 

그에 따르면, 서울원은 운영 안정성 측면에서 분산형 중복 구성의 무정전정원공급장치(UPS)와 N+1 구성의 비상 발전기를 갖췄다. 또한 최대 부하 기준 24시간 무급유 가동이 가능한 연료 탱크를 확보했다.

 

"고밀도 GPU 냉각, 공랭 한계 넘어 액체 방식으로 전환"

 

이날 양재석 운영센터장은 데이터센터 분야의 최신 어젠다로 냉각 기술을 꼽았다. 생성형 AI 확산에 따른 GPU 서버 수요 급증으로 발열량이 폭증하면서 기존 공랭 방식은 한계에 직면했다는 진단이다.

 

STT GDC는 이에 대응해 ▲AI 워크로드 최적화 전력 공급 ▲고밀도 냉각 시스템 ▲저지연 네트워크 환경을 AI 인프라의 핵심으로 정의했다. 특히 서울원은 수랭 기술인 '액침 냉각(Immersion Cooling)'과 '다이렉트투칩(Direct-to-Chip)' 방식을 즉시 구현할 수 있는 유연한 설계 체계를 갖췄다. 이때 액침 냉각은 서버 전체를 비전도성 액체에 담가 열을 식히는 방식이고, 다이렉트투칩은 칩 발열부 상단에 냉각판을 직접 붙여 액체를 순환시키는 기술이다.

 

 

허철호 대표는 이러한 STT GDC 기술력이 이미 글로벌 현장에서 검증됐다고 내세웠다. 실제로 STT GDC는 인도 푸네(Pune) 소재 ‘AI 디스커버리 및 이노베이션 센터’를 자사 R&D 거점으로 활용하고 있다. 이곳에서 HPC 및 AI 워크로드에 특화된 액체 냉각 기술을 정밀 테스트 중이다. 특히 슈나이더일렉트릭 등 글로벌 파트너사와 협력해 액침 냉각 PoC까지 성공적으로 마쳤다.

 

또한 오는 2030년 탄소중립 달성을 목표로 하는 STT GDC는 AI 자율 제어 기반의 '하이브리드 냉각 최적화'를 도입했다. 사측에 따르면, 이를 통해 데이터센터 운영 시 최대 30%의 에너지 절감을 실현한다. 이러한 전략은 고성능 AI 인프라 운영과 지속 가능한 경영이라는 두 마리 토끼를 동시에 잡겠다는 구상이다.

 

STT GDC 코리아는 서울원 가동을 기점으로, 국내 AI 및 클라우드 인프라 시장에 새로운 기준을 제시할 것이라는 방침이다. 끝으로 허 대표는 “자사 데이터센터가 AI 비즈니스의 성패를 가르는 핵심 엔진으로서 기능하도록 인프라 고도화에 박차를 가할 것”이라고 포부를 제시했다.

 

헬로티 최재규 기자 |









배너


배너





배너


주요파트너/추천기업