“온수로 냉각?” 데이터센터, 냉각기 없는 수랭 시대 열리나
컨텐츠 정보
- 조회 535
본문
액체 냉각의 ‘온도’를 올리는 실험이 본격화하고 있다. 초저온에 가깝게 차갑게 만든 물로 데이터센터를 식히는 대신, 뜨거운 물로도 슈퍼컴퓨터를 냉각하는 방식이 현실화되고 있다. 핵심은 액체 냉각에서 냉각수 냉각기를 빼는 것이다.
엔비디아의 CEO 젠슨 황은 올해 초 차세대 베라 루빈(Vera Rubin) 프로세서가 냉각수 온도를 “아주 차갑게” 유지할 필요가 없다고 밝혔다. 이전 세대 그레이스 블랙웰(Grace Blackwell) 대비 2배 성능을 내는 베라 루빈은 45℃ 물로도 냉각할 수 있다는 설명이다. 이는 일반적으로 권장되는 온수 욕조 설정 온도보다 높은 수준이며, 2025년 미국 라스베이거스 한여름 최고기온보다도 1℃ 높다.
황은 CES 기조연설에서 “45℃라면 데이터센터에 냉각기가 필요 없다. 우리는 사실상 ‘뜨거운 물’로 슈퍼컴퓨터를 냉각하고 있다. 효율이 놀라울 정도로 높다”라고 강조했다.
냉각수 온도를 높이면 데이터센터가 기계식 냉각에 의존해야 하는 시간이 근본적으로 달라진다는 분석이 나온다. 시장조사기관 델오로그룹(Dell’Oro Group)의 리서치 디렉터 알렉스 코르도빌는 “냉각수 온도가 38℃ 이상으로 올라가면, 운영자는 자원을 효율적으로 활용할 수 있는 시간을 크게 늘릴 수 있다”라고 말했다.
기후 조건이 맞는 지역에서는 기존 냉각기의 규모를 줄이거나 피크 시간대에만 제한적으로 쓰는 방식이 가능해진다. 코르도빌은 “이는 곧바로 에너지 소비 감소로 이어진다”라고 덧붙였다.
냉각기 없는 액체 냉각
데이터센터 액체 냉각은 새로운 기술이 아니다. IBM은 1960년대 이미 System/360 메인프레임에 수랭 방식을 적용했다.
‘온수’ 냉각도 오래전부터 존재했다. IBM은 2012년 최대 45℃까지 견딜 수 있는 상용 ‘온수 냉각’ 슈퍼컴퓨터를 세계 최초로 공개한 바 있다. IBM은 겨울에 이 온수를 독일 라이프니츠 슈퍼컴퓨팅 센터 캠퍼스 건물 난방에 활용해 연간 125만 달러를 절감했다고 밝혔다.
IBM만의 이야기는 아니다. 레노버의 인프라 솔루션 그룹에서 AI·HPC를 총괄하는 스콧 티스 부사장은 “레노버는 2012년부터 슈퍼컴퓨터에 액체 냉각을 적용해 왔고, 그 이후 꾸준히 개선해 지금은 6세대 기술에 와 있다”라고 밝혔다.
레노버가 ‘넵튠(Neptune)’ 액체 냉각 솔루션에 쓰는 냉각수도 ‘미지근한 물’이 아니라 사실상 온수다. 정확히는 45℃이며, 서버를 빠져나올 때는 더 뜨겁다. 티스는 “더운 기후에서도 물을 굳이 차갑게 만들 필요가 없다”라며 “높은 온도에서도 물은 칩을 충분히 식힐 수 있고, 냉각수 자체가 가진 가치가 분명하다”고 강조했다.
티스는 “일반적으로 데이터센터는 물을 식히기 위해 증발을 활용한다. 넵튠은 물을 식힐 필요가 없으니 증발도 필요 없다. 이는 물 사용량 측면에서 엄청난 절감”라며, “거의 완벽한 해법에 가깝다. 최고 성능, 최고 밀도, 최저 전력 소비를 동시에 달성한다. 가장 지속가능한 솔루션이다”라고 설명했다.
그렇다면 물은 어떻게 다시 식힐까? 티스에 따르면, 냉각수는 배관을 통해 옥상으로 올라가 대형 라디에이터를 지나며 열을 방출하고, 다시 서버로 순환한다. 항상 서버로만 돌아가는 것은 아니다. 뜨거운 물을 캠퍼스나 지역사회 수영장 난방에 활용할 수도 있다. 티스는 “북유럽 일부 데이터센터는 지역 커뮤니티의 온수 시스템에 열을 공급하고 있다”라고 전했다.
‘뜨거운 물’이 수랭 시스템의 주류로 부상
온수 냉각 기술 자체는 오래됐지만, AI 연산 수요가 급증하면서 최근 들어서야 주목을 받기 시작했다. 기술이 ‘주류’로 올라서고 있다는 의미다.
레노버 서비스·솔루션 그룹 수석 부사장 겸 글로벌 CIO 아서 후는 “이제는 필수”라고 단언했다. 엔비디아가 언급한 ‘AI 팩토리’ 역시 온수 냉각이 가능해야 성립한다는 것. 후는 온수 냉각을 도입하는 데이터센터가 대체로 신규 시설이라고 말했다. 데이터센터 일부 구역이나 특정 랙에만 적용하는 것도 기술적으로는 가능하지만, 전력 요구사항 때문에 현실적으로 맞지 않는 경우가 많다는 설명이다.
후는 “대규모 적용의 문제는 전력 밀도이다. 차세대 데이터센터는 전력 밀도가 20~30배 높아진다. 기존 시설의 한쪽 구석에만 온수 냉각을 넣어서는 의미가 없다. 시설 자체가 그 전력을 감당하지 못하기 때문”이라고 지적했다.
업타임 인스티튜트에 따르면, 최신 고성능 프로세서는 40℃에서도 효과적으로 냉각할 수 있는 수준에 도달했다. 이에 맞춰 ‘직접 액체 냉각’ 솔루션 업체도 고온 운영을 전면에 내세우기 시작했다.
데이터센터 냉각 솔루션 업체 액셀시어스(Accelsius)는 물 대신 끓는점이 낮은 절연성 액체를 쓰는 2상 시스템을 제공한다. 액셀시어스의 CTO 리치 보너는 “단상 수랭 대비 6~8℃ 더 나은 성능을 낸다. 51~55℃로 운영할 수도 있어, 에너지 효율을 더 끌어올릴 여지가 있다”라고 말했다. 또, 45℃ 운영의 과제로 “미생물 증식 온도 범위에 걸친다. 55~60℃로 올리면 그런 문제가 없어질 만큼 뜨겁다”라고 덧붙였다. 물을 쓸 경우 부식 문제도 있다는 지적이다.
2상 시스템은 유체를 칩으로 투입하면 낮은 끓는점 때문에 바로 끓기 시작하고, 이때 생기는 기포가 난류를 만들어 열 전달 성능을 높인다. 보너는 “칩으로 보내는 유체 유량을 4~9배 덜 써도 된다”라고 말했다. 핵심은 증기가 액체보다 더 뜨거워지는 게 아니라 상변화(phase change)에 열이 쓰인다는 점이다. 서버를 빠져나온 뒤 유체를 ‘더 차갑게’ 만들기보다, 다시 액체로 응축시켜 순환시키는 방식이다.
다른 업체도 잇따라 뛰어들고 있다.
- 2024년 중반 리퀴드스택(LiquidStack)은 최대 45℃를 지원하는 CDU-1MW 냉각수 분배 장치를 발표했다.
- 슈퍼마이크로(SuperMicro)는 2025년 초 직접 액체 냉각 솔루션이 최대 45℃를 지원한다고 밝혔다.
- 버티브(Vertiv)는 지난해 3월 공개한 쿨루프 트림 쿨러(CoolLoop Trim Cooler)가 물 온도 최대 40℃, 냉각판 45℃를 지원한다고 발표했다.
- 슈나이더 일렉트릭(Schneider Electric)의 모티베어(Motivair)는 45℃는 물론 그 이상 고온 액체 냉각을 지원한다.
고온 액체 냉각의 이점
AI 팩토리는 수백 메가와트의 전력을 사용하지만, 그중 30%는 전력 변환·분배·냉각 과정에서 손실된다. 45℃ 운전이 가능해지면, 35℃와 비교해 설계 대비 비용과 복잡도가 큰 냉각 장치 대신 주변 공기만으로 물을 식힐 수 있는 구간이 늘어난다.
맥킨지는 액체 냉각이 초기 투자비는 더 들 수 있지만 장기적으로는 비용을 절감할 수 있다고 분석했다. 예컨대 칩 직접 냉각(direct-to-chip) 방식은 기존 공랭 대비 전력을 31% 덜 쓴다는 설명이다.
액체 냉각의 손익분기점은 지역 전기요금에 따라 1~3년 사이로 제시된다. 또 액체 냉각은 소음이 더 적고, 물리적 공간을 덜 차지하며, 데이터센터에서 더 높은 서버 밀도를 가능하게 한다.
운전 온도가 높아지면 폐쇄형 시스템 구현도 쉬워진다. 물을 증발시키며 식히는 대신, 데이터센터 옥상 라디에이터 배관을 흐르며 공기 중으로 열을 충분히 방출한 뒤 다시 사용 가능한 수준으로 돌아오는 방식이다. 따뜻한 기후에서도 가능한 만큼, 데이터센터의 물 사용량을 크게 줄일 수 있다.
델오로그룹이 공개한 조사에 따르면, 액체 냉각 시장은 2025년 거의 두 배 성장해 매출이 30억 달러에 근접했고, 2029년에는 70억 달러 규모로 커질 전망이다.
여전히 공랭이 주류지만, 액체 냉각의 비중은 빠르게 커지고 있다. 451 리서치 설문에 따르면, 현재 ‘공랭만’으로 운영되는 데이터센터 비율은 45%로, 2024년의 48%에서 줄었다. 반면 공랭과 액체 냉각을 병행한다는 응답은 42%, ‘전면 액체 냉각’은 12%였다.
또 응답자의 59%는 향후 5년 내 액체 냉각을 도입할 계획이라고 했고, 이 중 21%는 향후 12개월 안에 도입하겠다고 밝혔다. 응답자들이 꼽은 장점은 서버 전력 확대와 랙 밀도 상승이다. 전력 효율 개선, TCO 개선, 저소음 운영도 주요 이점으로 언급됐다.
다만 단점도 분명하다. 같은 설문에서 56%는 설치·유지보수 비용이 높다는 점을 도입 장벽으로 꼽았다. 53%는 “대부분의 냉각 수요는 여전히 공랭으로 충분하다”고 답했다. 구성요소 연결 표준이 부족하다는 응답은 29%였고, 숙련 인력 부족을 지적한 응답도 29%였다.
고온 액체 냉각의 한계
결국 액체 냉각이 데이터센터의 ‘만능 해법’은 아니다. 특히 45℃ 이상 고온 운영은 더욱 그렇다. 보너는 “최종 성능과 지속가능성 측면에서 단점은 없다”라면서도 “도전 과제가 있다”라고 인정했다.
가장 현실적인 문제는 작업 환경이다. 시설 내 물이 모두 45℃라면 데이터센터 전체가 그 온도대로 달아오를 수밖에 없다. 보너는 “작업자에게는 매우 더울 수 있다. 사람이 일할 수 있도록 공기만 따로 냉각해야 할 수도 있다”라고 지적했다.
표면이 손으로 만지기 뜨거울 수 있고, 최신 칩이 고온 액체 냉각을 견딘다고 해서 데이터센터의 다른 모든 장비가 동일 조건을 만족하는 것도 아니다. 옥상 라디에이터가 차지하는 공간도 만만치 않다는 지적이다. 이런 이유로 보너는 “대부분 하이퍼스케일러와 대형 데이터센터는 여전히 냉각기를 갖추고 물 온도를 30~35℃로 운영한다”라고 말했다.
젠슨 황의 CES 기조연설 직후 냉각 기술 관련 기업 주가가 급락했다는 보도도 나왔다. 모닝스타에 따르면, 존슨콘트롤즈(Johnson Controls), 모다인 매뉴팩처링(Modine Manufacturing), 트레인 테크놀로지스(Trane Technologies), 캐리어 글로벌(Carrier Global) 등이 영향을 받았지만 주가는 빠르게 회복했다.
보너는 “엔비디아가 이런 메시지를 던지는 건 긍정적이고, 이를 채택할 곳도 분명히 나올 것”이라며, “세대가 바뀔 때마다 온도는 몇 도씩 올라가는 흐름이 있다”고 말했다. 코르도빌은 현재 고온 냉각수를 쓰는 수랭 랙은 아직 소수이며, 대체로 AI 워크로드 중심이라고 진단했다. 다만 “2027년부터는 액체 냉각 랙에서 고온 운전이 다수가 될 것으로 본다”라고 덧붙였다.
dl-itworldkorea@foundryco.com
관련자료
-
링크
-
이전
-
다음






