AI 데이터센터 무대로 떠오른 한국, 조명받는 AI 인프라

SK에코플랜트의 생성형 AI를 활용해 요약·편집한 내용입니다
AI 경쟁의 무대가 데이터센터 ‘인프라’로 이동하면서 글로벌 데이터센터 기업들이 잇따라 한국을 찾고 있다. 지진으로부터 안전하고 적합한 기후, 안정적인 인터넷∙통신 인프라를 보유했기 때문이다. 이처럼 국내 데이터센터에 대한 투자 수요가 늘어나면서 고밀도 GPU를 수용하기 위한 전력·냉각·운영 역량을 갖춘 기업에게는 새로운 기회가 열리게 될 전망이다. AI 시대의 필수 인프라로 떠오른 데이터센터와 SK에코플랜트의 통합 인프라 전략을 살펴보자.


(출처: 클립아트코리아)

 

인공지능 관련 국가간 경쟁 심화와 AI 데이터센터의 부상

챗지피티(ChatGPT)의 등장 이후 인공지능은 보조 기술 이상으로 국민의 생활 방식과 근로자의 산업 전반에 구조적인 변화를 가져오고 있다. 최근 ChatGPT보다 정교한 성능을 갖춘 구글(Google) 제미나이(Gemini) 3.0의 출시로 인공지능 기술의 활용 범위와 사회적·경제적 의존도는 더욱 심화될 것으로 예상되며, 이를 둘러싼 국가 간 기술 경쟁 역시 한층 치열해지고 있다.

현재 인공지능 기술 주도권은 ChatGPT와 Gemini 등 핵심 서비스를 보유한 미국이 선도하고 있으나, 중국 역시 딥시크(DeepSeek) 등 자체 기술과 방대한 인구 기반 데이터 자산을 토대로 빠르게 추격하고 있다. 이처럼 인공지능 경쟁이 심화되면서, 알고리즘이나 모델 성능뿐 아니라 이를 실제로 구현하고 확장할 수 있는 연산 자원과 기반 인프라의 중요성이 함께 부각되고 있다.

이러한 흐름 속에서 우리 정부 역시 AI 경쟁력 강화를 위해 초거대언어모델(LLM) 개발에 필수적인 GPU(Graphics Processing Unit, 그래픽 처리 장치) 확보에 나서고 있다. 엔비디아(NVIDIA) GPU 1만 장 지원을 시작으로, 최근에는 엔비디아 CEO 젠슨 황(Jensen Huang)과의 협력을 통해 GPU 26만 장 추가 확보를 추진하는 등 AI 컴퓨팅 역량 강화를 위해 속도를 내고 있다. 한편 구글은 Gemini 3.0 학습에 자체 개발한 TPU(Tensor Processing Unit, 텐서 처리 장치)를 활용하며 엔비디아의 GPU에 대한 대안 기술을 제시하고 있고, 국내에서도 AI 반도체 설계 기업 퓨리오사(Furiosa), 리벨리온(Rebellion) 등을 중심으로 NPU(Neural Processing Unit, 신경망 처리 장치) 개발이 추진되고 있으나 완성도와 활용성 측면에서는 아직 제한적인 수준에 머물러 있다.


NVIDIA의 D2C(Direct to Chip) 수냉식 쿨링 설비. 냉각수 분배 장치 CDU(Coolant Distribution Unit)를 통해 서버의 기판으로 직접 냉수가 공급된다. (출처: NVIDIA)

그러나 GPU와 같은 AI 가속기의 확보는 AI 경쟁의 출발점에 불과하다. 확보된 GPU(H200, B200 등)를 활용해 AI 모델을 개발하기 위해서는 GPU를 장착할 서버, 이를 수용할 고밀도·고전력 랙, GPU·서버·랙을 연결하는 초고속 네트워크 기술이 필수적이다. 동시에 고밀도 랙에서 발생하는 막대한 열을 처리하기 위한 수냉식(liquid cooling) 냉각 설비와 전용 데이터센터 구축 역시 요구된다. 즉, AI 경쟁의 실질적인 무대는 개별 가속기가 아니라, 이를 집약적으로 운영할 수 있는 AI 데이터센터 인프라에 있다.

 

AI 데이터센터 입지조건 – 왜 한국인가?

AI 데이터센터는 GPU, NPU, TPU 등 AI 가속기뿐 아니라 HBM(High Bandwidth Memory)과 같은 고대역폭 메모리, 가속기와 메모리를 연결하는 NVLink·CXL 기반의 고속 인터커넥트, NVMe 기반의 대용량 고속 스토리지, 그리고 인피니밴드(Infiniband) 같은 초고속 백엔드 네트워크까지 함께 고려해야 하는 복합 인프라다. 이들 요소는 기존 데이터센터와는 전혀 다른 수준의 전력 밀도와 냉각 성능을 요구한다.

이러한 배경 속에서 AWS(아마존 웹 서비스), MS Azure(마이크로소프트 애저), GCP(구글 클라우드 플랫폼), CSP(Cloud Service Provider) 같은 글로벌 클라우드 기업들과 Equinix(에퀴닉스), Digital Realty(디지털 리얼티) 등 코로케이션(데이터센터 임대 사업) 사업자들이 잇달아 한국 시장에 진출하고 있다. 여기에 건설사와 투자사의 참여까지 더해지며 국내 데이터센터의 신축 수요가 빠르게 증가하는 추세다.


(출처: 셔터스톡)

글로벌 기업들이 한국을 선택하는 이유는 데이터센터 구축에 필수적인 입지 조건이 비교적 균형 있게 갖춰져 있기 때문이다. 한국은 지진 발생 빈도가 상대적으로 낮고 사계절을 바탕으로 적합한 기후 조건을 갖춘 데다 전력 품질과 통신 인프라 측면에서도 아시아 최고 수준의 경쟁력을 보유하고 있다. 이러한 조건은 싱가포르에 이어 아시아 데이터센터 허브로 도약할 수 있는 잠재력으로 평가된다.

경쟁국과 비교하면 한국의 입지 강점은 더욱 분명해진다. 싱가포르는 열대 기후로 인해 냉각 비용 부담이 크고 국토 면적의 한계가 있으며, 홍콩과 중국은 정치적 불확실성이 부담 요인으로 작용한다. 일본은 기후 조건은 유사하나 지진 리스크가 상존한다. 반면 한국은 동절기를 포함해 연중 약 6개월 동안 외부 냉기를 활용한 프리쿨링이 가능하고, 삼면이 바다에 둘러싸여 있어 용수 확보 여건도 양호하다. 다만 최근 수도권을 중심으로 전력 공급 여력이 빠르게 소진되고 있다는 점은 향후 데이터센터 입지 전략에서 중요한 변수로 떠오르고 있다.

 

AI 데이터센터를 운영하는 기술 – 통합 인프라 역량의 중요성

엔비디아 B200 GPU 8장을 장착한 서버 1대의 소비 전력은 14.3kW에 달하고, 냉각 전력을 포함하면 서버 1대당 약 20kW, 서버 4대를 수용한 랙은 약 80kW 수준의 전력을 필요로 한다. 현재 국내 데이터센터의 평균 랙 전력 밀도는 3~5kW 수준에 불과해, 고성능 GPU 서버를 수용하기에는 구조적 한계가 명확하다. 

서버와 랙에서 소비되는 전력은 곧바로 열 에너지로 전환되며, 이에 따라 기존 공랭식 설비만으로는 대응이 어렵기 때문이다. 기존 엔비디아의 GPU H100까지는 공랭 운영이 가능했으나, 최신 H200·B200급 GPU 서버부터는 공랭·수냉 혼용 또는 수냉식 설비 도입이 사실상 필수 조건으로 자리잡고 있다.

국내 데이터센터는 수전 용량 1~30MW 수준의 중소형 센터가 다수를 차지하고 있으며, 40MW 내외의 대형 센터는 10여 개 수준, 100MW 이상의 초대형 데이터센터는 1~2개에 불과한 것으로 알려져 있다. GPU 1만 장 규모의 AI 인프라를 운영하기 위해서는 약 20MW 이상의 전력이 필요하며, 25만 장 이상을 운용할 경우 수백 MW에서 GW 단위의 전력 확보가 요구된다.

수도권은 이미 전력 수요가 공급을 초과하는 구조에 접어들었고, 송전선로 신설에는 장기간의 인허가와 공사 기간이 소요된다. 이에 정부는 분산에너지특별법 도입과 전력계통영향평가 의무화를 통해 데이터센터 입지와 전력 수급의 균형을 관리하고 있다.

미국 역시 AI 데이터센터의 전력 문제를 핵심 과제로 인식하고 있다. 구글은 탄소 없는 에너지(CFE) 기반 전력 공급을 추진하고 있으며, 아마존과 마이크로소프트는 원전 및 소형모듈원전(SMR) 연계를 통해 대규모 전력 확보에 나서고 있다. AI 데이터센터 경쟁의 본질이 결국 전력과 이를 통합적으로 설계 및 운영할 수 있는 인프라 역량에 있음을 보여준다.

 

통합적 설계·운영 역량으로 완성되는 SK에코플랜트의 AI 데이터센터 전략


SK에코플랜트가 시공중인 SK AI 데이터센터 울산 연출 이미지.

이러한 환경 변화 속에서 SK에코플랜트는 AI 데이터센터를 단일 건설 프로젝트가 아닌, 전력·냉각·통신·운영을 포괄하는 통합 인프라 솔루션으로 접근하고 있다.

대표적인 사례가 ‘SK AI 데이터센터 울산’이다. SK그룹과 AWS, 울산광역시와 함께 이 프로젝트를 추진하며, SK에코플랜트는 데이터센터 조성과 인프라 구축을 맡는다. 첨단 AI 데이터센터 건립을 목표로 핵심 설비 설계와 시공은 물론 전력·통신·냉각 시스템 구축까지 전 주기 인프라를 직접 수행한다. 단순 시공을 넘어 AI 데이터센터 운영까지 고려한 통합 역량을 실증하는 프로젝트인 셈이다.


SK에코플랜트가 개발한 연료전지 기반 냉각 설루션. 연료전지에서 발생한 열을 냉각수 생산에 이용해 에너지 효율을 높일 수 있다.

전력과 냉각 분야에서도 SK에코플랜트는 전력 공급용 연료전지뿐 아니라 연료전지에서 발생하는 열을 회수하여 흡수식 냉동기를 통해 냉수를 생산하는 고효율 냉각 기술도 확보하고 있다. 이는 냉각을 위해 다시 전력을 소비해야 하는 기존 구조적 한계를 완화할 수 있는 대안으로 평가된다.


미국 버지니아 주에 위치한 SK테스 하이퍼스케일 데이터센터 ITAD 시설 전경.

AI 데이터센터 운영의 지속가능성 측면에서도 SK에코플랜트의 차별성은 분명하다. 자회사 SK테스는 전 세계 20여 개국에서 사업장을 운영하는 글로벌 IT자산처리(ITAD) 선도 기업으로, 데이터센터 서버부터 반도체에 이르기까지 IT 자원의 회수와 재자원화에 대한 기술을 보유하고 있다. 이는 AI 데이터센터의 구축과 운영을 넘어, 장비 폐기 단계까지 포함한 전 생애주기 관점에서의 탄소 관리를 가능하게 한다.

여기에 SK그룹의 반도체∙통신 인프라 구축 역량, 울산의 해안가 입지 조건까지 더해지며 울산 AI 데이터센터는 그룹 차원의 AI 인프라 생태계를 구현하는 상징적 사례로 자리매김할 가능성이 크다.

 

마무리 및 제언


Google이 Central Ohio에 구축한 New Albany 데이터센터 캠퍼스의 데이터센터 빌딩들. (출처: datacenters.google)

구글의 루이스 안드레 바로소(Luiz Andre Barroso)는 ‘데이터센터는 이제 하나의 컴퓨터’라고 표현했고, 엔비디아는 AI 데이터센터를 ‘AI Factory’로 정의하고 있다. 이 표현들이 시사하는 바는 분명하다. 오늘날 AI 경쟁력은 개별 모델이나 가속기 성능이 아니라, 이를 집약적으로 운영할 수 있는 데이터센터 인프라로 이동했다는 점이다.

AI 모델과 가속기 기술은 빠르게 발전하고 있지만, 이를 수용할 데이터센터 인프라는 기획부터 가동까지 최소 3년 이상의 시간이 필요하다. 그리고 한 번 뒤처진 인프라는 단기간에 빠르게 따라잡기 쉽지 않고, 이는 곧 국가 경쟁력의 격차로 이어지기까지 한다. 즉 AI 경쟁에서 인프라는 승패를 가르는 선행 조건인 것이다.

때문에 AI 데이터센터는 단순한 민간 투자 대상이나 산업 시설이 아니라, 반도체 공장이나 전력망과 같은 국가 전략 자산으로 인식돼야 한다. 전력·냉각·통신·운영을 통합적으로 설계하고, 입지와 전력 수급, 환경 영향까지 함께 고려하는 인프라 전략 없이는 지속 가능한 AI 경쟁력을 확보하기 어렵다.

최근 논의되고 있는 ‘AI 데이터센터 진흥 특별법’은 이러한 인식 전환을 제도적으로 뒷받침할 수 있는 출발점이 될 수 있다. 여기에 더해, 전력·냉각·환경 기술과 글로벌 데이터센터 운영 경험을 동시에 축적해 온 기업들의 역할 역시 중요해질 것이다.

AI 시대의 경쟁력은 코드를 넘어 인프라에서 결정되고 이 인프라의 완성도는 누가 이를 통합적으로 설계하고 구현할 수 있느냐에 달려 있다. AI 데이터센터를 둘러싼 새로운 경쟁 구도 속에서, 국내외로 인프라 역량을 축적해 온 SK에코플랜트의 역할과 가능성에 대한 기대가 커지는 이유다.


 

 

나연묵 교수는 빅데이터, 클라우드, 데이터센터 분야의 전문가로 범정부 그린IDC협의회 운영위원, 국가정보자원관리원 책임운영심의위원으로 활동하였고, 그린데이터센터인증위원회 기술위원장, 데이터센터연합회 이사, 지능형컴퓨팅기술포럼 의장, 미래그린아이티포럼(FIT포럼) 이사장, AI데이터센터 전문가 협의체 의장, ISO/IEC JTC 1/SC 38(클라우드컴퓨팅), SC 39(지속가능성 및 데이터센터) 전문위원 등으로 활동하고 있다. 한국산업기술평가관리원 차세대컴퓨팅PD, 한국정보과학회 회장, 소프트웨어중심대학협의회 회장을 역임하였고 공로로 근정포장을 수상하였다. 주요 저서로는 《멀티미디어 개론》, 《모두를 위한 클라우드 이론과 실습》, 주요 역서로는 《데이터베이스처리론》, 《데이터 사이언스 디자인 매뉴얼》, 《데이터 마이닝》, 《도커 컴포즈 개발자 핵심 가이드》 등이 있다. 컴퓨터공학 전공 공학박사이며, 현직 단국대학교 컴퓨터공학과 교수로 재직중이다.

연관 콘텐츠