열두 번의 변환. 기존 데이터센터에서 전봇대부터 실제 연산을 수행하는 트랜지스터에 이르기까지 전기가 형태를 바꾸는 횟수다. 계통 교류(AC)가 변압기를 거쳐 강압되고, UPS에서 직류(DC)로 변환된 뒤, 배전을 위해 다시 교류로 변환되고, 랙 PDU에서 또 한 번 강압된 다음, 최종적으로 각 서버의 파워 서플라이 유닛(PSU) 내부에서 직류로 변환된다. 매 변환 단계마다 전력이 열로 소모된다. 그리고 누군가는 그 열에 대한 비용을 지불하고 있다.

그 누군가가 바로 당신이다. 클라우드 청구서를 통해서.

IEEE Spectrum에 따르면, 하이퍼스케일 사업자들은 이제 체계적으로 데이터센터 전력 체인에서 교류를 걷어내고 이를 엔드투엔드 직류 배전으로 교체하고 있다. 이 전환은 서버 PSU, 기존 UPS 시스템, AC 전력 분배 장치 등 하드웨어 계층 전체를 제거하며, 가상화 이후 가장 중대한 보이지 않는 인프라 변화를 의미한다. 지금 이 순간 클라우드에 워크로드를 배포하고 있는 대부분의 엔지니어들은 자신들의 컨테이너 아래에서 이런 변화가 일어나고 있다는 사실을 모른다.

여기까지 어떻게 오게 되었는지, 그리고 랙에서 교류가 사라지면 무엇이 깨지는지 살펴보자.

1882년, 1892년: 전력망을 형성한 전쟁

토머스 에디슨은 1882년 맨해튼 펄 스트리트에 최초의 상업용 전력망을 구축했다. 직류. 110볼트. 작동은 했지만 먼 거리까지 전송할 수 없었다 — 1마일마다 발전소가 필요했다.

조지 웨스팅하우스와 니콜라 테슬라는 교류에 승부를 걸었다. 교류는 장거리 송전을 위해 고전압으로 승압한 뒤, 소비자 사용을 위해 다시 강압할 수 있었다. 1892년까지 교류의 결정적 승리였다. 에디슨의 직류는 틈새 응용 분야로 밀려났다.

130년간 그것이 정설이었다. 교류가 이겼다. 이야기 끝.

1950년대, 1990년대: 통신이 직류를 살려낸 방법

그런데 전화 회사들은 직류를 버린 적이 없었다. 벨 시스템은 처음부터 대규모 배터리 뱅크를 등에 업고 48V DC 전원으로 중앙국사를 운영했다. 이유는 단순했다. 변환 단계가 적을수록 장애 지점이 줄었기 때문이다. 전화 한 통이 응급 서비스에 — 문자 그대로 — 생사가 달린 문제였을 때, 인버터 고장으로 교환기가 멈추는 일은 용납할 수 없었다.

중요한 것은 바로 이 계보다. 에디슨의 자존심이 아니라, 통신업계의 실용주의. 훗날 데이터센터를 재편하게 될 48V DC 표준은 바로 그 중앙국사에서 탄생했다.

2003년, 2010년: 판도를 바꾼 수학

로런스 버클리 국립연구소는 2006년에 정전(正典)이 된 연구를 발표하며, 데이터센터 내 직류 배전이 전체 전기 효율을 7~10퍼센트 개선할 수 있음을 입증했다. 이 수치는 별 것 아닌 것처럼 들리지만, 100메가와트급 시설에서 연중무휴 운영하는 경우를 곱해 보면 이야기가 달라진다.

연간 전기료 4,000만 달러의 7퍼센트는 280만 달러다. 매년. 시설 하나당.

일본 NTT는 2009년에 최초의 상용 380V DC 데이터센터 중 하나를 배치했다. 유럽 통신 사업자들도 비슷한 시기에 시범 운영을 진행했다. 하드웨어는 미성숙했고, 표준은 파편화되어 있었지만, 수학은 반박 불가능했다.

2012년: 구글이 서버 PSU를 죽이다

구글이 하이퍼스케일 진영 최초로 움직였다. 각 서버에 208V 또는 480V 교류를 공급하고 개별 PSU로 12V 직류 변환을 맡기는 대신, 구글은 랙 단위 48V DC 배전을 도입하기 시작했다. 하나의 고효율 정류기가 전체 랙에 전력을 공급한다. 개별 서버는 48V를 직접 받아 메인보드에서 12V로 강압한다.

이것이 서버 PSU를 죽였다. 비유가 아니라 — 물리적으로 섀시에서 제거했다.

결과: 서버당 부품 수 약 30퍼센트 감소. 고장률 하락. 열 감소. 구글은 전력 배전만으로 에너지 손실이 약 30퍼센트 줄었다고 추산했다. 수백만 대의 서버를 운영할 때, 그 차이는 엔지니어링 비용의 만 배를 갚고도 남는다.

2013년, 2018년: Open Compute가 직류를 대중화하다

페이스북(현 메타)이 DC 랙 아키텍처를 Open Compute Project에 도입하여, 누구나 제조할 수 있도록 설계를 공개했다. 이것이 대중화의 순간이었다. 갑자기 구글 규모의 R&D 예산이 없어도 직류 배전을 탐구할 수 있게 되었다.

마이크로소프트는 48V와 380V DC 아키텍처를 병행 테스트하기 시작했다. Azure의 데이터센터는 하이브리드 전력 체인을 갖추고 등장하기 시작했다: 유틸리티 연결 지점에서 열(row) 단위까지 380V DC, 열에서 랙까지 48V DC, 보드 단에서 12V 이하.

기존 UPS — 납축전지나 리튬 배터리와 양방향 인버터로 가득 찬 방 크기의 캐비닛 — 가 배전 버스에 인라인으로 연결된 단순한 DC 배터리 뱅크로 대체되기 시작했다. 인버전 없음. 정류 없음. 배터리가 동일한 DC 레일에서 충방전한다. 가동 부품이 적고, 고장 모드가 줄고, 절체가 빨라진다.

2019년, 2023년: AI 전력 위기가 타임라인을 바꾸다

그때 학습 실행이 들이닥쳤다.

NVIDIA DGX H100 시스템 한 대가 10킬로와트 이상을 소비한다. 8대로 구성된 랙은 80kW 이상을 끌어당긴다. 대규모 언어 모델 학습을 위한 GPU 클러스터는 열(row)당 메가와트급 전력을 요구할 수 있다. 이런 밀도에서는 전력 배전 효율의 1퍼센트포인트가 곧바로 랙당 더 많은 연산 또는 랙당 더 적은 냉각으로 직결된다. 대개 둘 다.

IEEE Spectrum이 보도한 대로, AI 인프라 확장은 20년이 걸렸을 전환을 5년에 가깝게 압축시켰다. 전력 예산이 학습 속도의 바인딩 제약 조건이고 — 학습 클러스터 비용이 1억 달러일 때 — 배전 손실 8퍼센트를 줄이는 것은 최적화가 아니다. GPU 92대가 실제 연산을 수행하는 것과 100대가 수행하는 것의 차이다.

2024년, 2026년: 직류가 기본이 되다

구글, 메타, 마이크로소프트, 아마존 모두 정도의 차이는 있지만, 신규 하이퍼스케일 시설이 DC 우선 아키텍처로 건설되고 있음을 공개한 바 있다. 세부 사항은 다양하다: 일부는 유틸리티에서 열 단위까지 380V HVDC를 운용하고, 다른 곳은 정류기에서 서버까지 48V를 운용한다. 대부분은 2단계 접근 방식으로 수렴하고 있다 — 열까지 고전압 DC, 랙까지 48V DC, 칩까지는 온보드 전압 레귤레이터.

이러한 설계에서 기존 서버 PSU는 사라졌다. AC PDU도 사라졌다. 대부분의 엔지니어가 떠올리는 UPS — DC 배터리 전력을 교류로 인버팅해서 서버가 그걸 다시 직류로 변환하게 하는 상자 — 도 사라졌다.

실제 비용

고객을 위해 산출하는 것과 동일한 방식으로 숫자를 돌려 보겠다.

기존 AC 배전 데이터센터는 전자가 CPU에 도달하기 전에 입력 전력의 약 10~15퍼센트를 배전과 변환에서 손실한다. 최신 DC 배전 시설은 약 4~6퍼센트를 손실한다.

50MW 시설 기준, kWh당 $0.05 지불 시:

  • AC 배전 손실: 5~7.5MW 낭비, 연간 약 220만~330만 달러
  • DC 배전 손실: 2~3MW 낭비, 연간 약 87만 6천~130만 달러
  • 연간 절감액: 시설당 130만~200만 달러

이제 현재 전 세계에서 운영 중이거나 건설 중인 약 200개의 하이퍼스케일 시설을 곱해 보라. 산업 전체의 총 절감액은 연간 수억 달러 규모로 측정된다.

하지만 진짜 절감은 전기료에 있지 않다. 아예 구매하지 않는 하드웨어에 있다. 서버 PSU가 없다. UPS가 단순해진다. PDU가 줄어든다. 구리 배선이 줄어든다. 부품을 제거했으니 랙 밀도가 높아진다. 한 하이퍼스케일 사업자는 DC 배전으로 랙당 자본 비용이 15퍼센트 낮아졌다고 추산했으며, 그 주요 원인은 전력 변환 하드웨어의 제거였다.

교류가 사라지면 무엇이 깨지는가

컨퍼런스에서 아무도 이야기하지 않는 부분이 여기에 있다.

엔터프라이즈 데이터센터 장비의 전체 생태계가 AC 입력을 전제로 한다. 모든 모니터링 도구, 웹 인터페이스가 있는 모든 PDU, 모든 서지 보호기, 모든 KVM 스위치. 하이퍼스케일러가 직류로 전환할 때 그들은 맞춤 설계한다 — 그럴 여력이 되니까. 하지만 이는 하이퍼스케일 인프라와 엔터프라이즈 및 코로케이션 사업자가 이용할 수 있는 장비 사이의 격차를 점점 벌린다.

표준 파편화는 현실이다. 380V DC, 48V DC, 12V DC가 모두 혼재하지만, 오늘날 208V 또는 480V AC가 지배하는 것처럼 단일 지배적 배전 전압은 존재하지 않는다. IEC와 ITU가 표준을 발행했지만, 벤더 간 채택은 여전히 불균등하다.

인력 문제도 있다. AC 배전에 대해 훈련받은 전기 기술자와 시설 엔지니어는 DC를 위한 재교육이 필요하다. 안전 프로파일이 다르다: DC 아크는 AC 아크처럼 영점 교차 시 자체 소멸되지 않는다. 다른 차단기, 다른 차단 절차, 다른 보호 장구가 필요하다.

당신의 클라우드 청구서에 미치는 영향

솔직히? 아마 이번 분기 청구서에서 눈에 띄는 변화는 없을 것이다. 클라우드 제공업체는 "전력 배전 토폴로지"를 항목별로 청구하지 않는다.

하지만 이렇게 생각해 보라. 인프라 계층에서의 모든 효율 향상은 클라우드 제공업체에게 선택지를 준다: 절감분을 낮은 가격으로 전달하거나, 마진으로 흡수하거나. 역사적으로 그들은 양쪽을 조금씩 해왔다 — 인스턴스당 비용을 낮추면서도 새로운 서비스를 통해 고객당 총 지출은 늘리는 방식으로.

보다 실행 가능한 시사점: GPU 집약적 워크로드에 대해 코로케이션과 클라우드를 비교 평가하고 있다면, 코로케이션 사업자에게 전력 배전 아키텍처를 물어보라. 아직도 개별 서버 PSU를 갖춘 채 랙까지 교류를 운용하고 있다면, 그들의 실질적인 전력 오버헤드는 직류를 운용하는 하이퍼스케일러보다 10~15퍼센트 높다. 이 효율 격차는 kW당 가격, 냉각 비용, 그리고 가용 랙 밀도에 고스란히 반영된다.

에디슨은 전력망 전쟁에서 졌다. 하지만 데이터센터 내부에서 — 거리가 마일이 아닌 미터로 측정되는 곳에서 — 그의 주장은 늘 더 타당했다. 그것을 증명하는 데 130년과 AI 학습 붐이 필요했을 뿐이다.