Mobile QR Code QR CODE : Korean Journal of Air-Conditioning and Refrigeration Engineering
Korean Journal of Air-Conditioning and Refrigeration Engineering

Korean Journal of Air-Conditioning and Refrigeration Engineering

ISO Journal TitleKorean J. Air-Cond. Refrig. Eng.
  • Open Access, Monthly
Open Access Monthly
  • ISSN : 1229-6422 (Print)
  • ISSN : 2465-7611 (Online)

  1. 국립한밭대학교 공과대학 설비공학과 조교수, ( Assistance Professor, Department of Building and Plant Engineering, Hanbat National University, 34158, Daejeon, Korea )
  2. 신한무역(주) 기술지원팀 팀장 ( Senior Engineer, Technical Support Engineering Team, ShinHan Trade CO., LTD., 13558, Seongnam, Korea )
  3. 에스케이텔레콤주식회사 부대설비솔루션팀 매니저 ( Manager, Infra Facility Engineering Team, SK Telecom Co., Ltd., 04539, Seoul, Korea )



Data center(데이터센터), Air distribution system(공기분배시스템), IT environment(IT공조환경), Hot aisle containment(열-복도차폐), Cold aisle containment(냉-복도차폐)

1. 연구배경 및 목적

정보통신 5G 기술의 급속한 발전과 하드웨어 캐리어로서의 데이터센터가 빠르게 확장되어 시설운영을 위한 전력비용과 탄소배출량이 증가할 것으로 예상된다.(1) 최근에는 클라우드, 빅데이터, 인공지능, IoT 등 신사업 확대로 데이터가 다량으로 생성됨에 따라 이를 처리하기 위한 데이터센터의 중요성이 더욱 증가하고 있고 필연적으로 하이퍼스케일(hyper-scale) 데이터센터가 확산되고 있다.(2) 고밀도 데이터센터는 막대한 수량의 IT 장비로 구성되어 있으며 운영 중에 막대한 발열이 발생한다. 발열이 일정 시간 내에 제거되지 않으면 IT 시스템의 성능이 크게 저하되고 고장으로 인한 심각한 손실이 발생할 수 있다. 일반적인 데이터센터에서 사용하는 전력의 약 33%가 냉각시스템에 사용된다.(3) 이에 따라서 필수적으로 데이터센터에 안정적이고 효율적인 냉각시스템을 제공해야한다.

고밀도 IT장비의 발열제거를 위한 냉각은 데이터센터의 핵심적인 고려대상이다. IT장비의 적정한 운영환경을 유지하기 위해서 연중 ASHRAE의 권장온도(4) 범위를 유지해야하는데 이것은 막대한 에너지비용으로 연결된다.(5) 기존의 냉각방식은 대류에 의한 혼합냉각을 위해 공기를 열매체로 사용한 공랭식 방식이며, 냉각방식의 냉각용량은 공기의 열전도율과 비열용량이 낮아 제한적이다.(6) 따라서 열-복도와 냉-복도를 분리하는 것은 신규와 기존 데이터센터에서 적용할 수 있는 가장 필수적인 에너지절약 방법 중 하나다. 이러한 공기분배의 경로에 대한 차폐(containment)솔루션은 기존의 개방된 형태의 데이터센터 공조방식에 비해 국부과열(hot spot)을 효과적으로 방지할 수 있다. 그러나 기존 공기분배시스템에 대한 차폐방법은 IT장비 구성 등 기반시설의 제약조건에 따라 상이하다. 덕트로 연결된 열-복도차폐(HAC : hot aisle containment)는 최적의 냉각효율을 선호된다. 반면에 냉-복도차폐(CAC : cold aisle containment)는 기존의 이중마루(raised floor)로 구성된 바닥급기방식에 보다 작은 비용으로 설치기 용이한 장점을 가지고 이다.(7) 두 방법 모두 열기와 냉기의 혼합을 최소화하지만, 실제 구현 및 운영상의 차이로 공조환경조건, PUE, 이코노마이저 시간에 많은 영향을 준다. HAC는 CAC 보다 연간 냉각에너지를 40% 절약할 수 있고 이로 인하여 연간 PUE가 13% 감소하는 것으로 분석된 사례도 있다.(8)

본 연구에서는 고밀도 데이터센터에 필수적인 적용 솔루션으로 검토되는 HAC 및 CAC 시스템의 IT 환경을 분석하였다. 이를 위하여 최근 5G로 IT장비가 확충되는 S 데이터센터의 IT서버룸을 대상으로 열유동 해석을 하였다. 전산유체(CFD)해석은 기본적으로 HCA와 CAC에 적용된 냉각시스템의 가동성능과 IT서버룸 내부의 IT환경의 차이를 비교하는 목적으로 수행되었다. 따라서 본 연구의 결과는 다음의 3가지 사항을 중점적 분석하였다. 첫째, HAC와 CAC 적용에 따른 권장 IT공조환경의 지속성을 비교하고 둘째, 공기분배방식에 따른 열 성능을 분석하며, 마지막으로 냉각시스템이 정상적으로 가동하는 상태와 1대가 고장난 미가동 상태인 비상시의 IT공조환경의 차이를 분석하였다.

2. 데이터센터 공기분배시스템 개요

Fig. 1은 데이터센터 내부의 고온공기와 저온공기를 물리적으로 차폐하는 유형을 보여준다.(7) 여기서 기존 데이터센터에 적합한 공기분배시스템의 유형은 무엇인가의 의문이 제기된다. 실제로 최상의 차폐유형은 시설의 제반 조건에 따라 크게 달라진다. 데이터센터 공기분배방식의 기본 구성은 CRAC/H(computer room air conditioning/ handling) 유닛과 랙-서버(rack server)에 장착된 IT장비와의 연계성에 따라서 룸-기반(room-based), 구역기반(row-based) 및 IT장비기반(rack-based) 냉각시스템으로 구분된다.(9) 공기분배방식에 따라서 일부 데이터센터에서는 두개 이상의 유형을 선택할 수 있는 반면, 물리적 제약으로 인해 단일유형의 차폐방식으로 제한될 수 있다. 기존 데이터센터는 대부분이 룸-기반 냉각방식이기 때문에 환기(RA)덕트 연결 HAC와 CAC만 적용가능하다. 그러나 일부 구역단위 in-row 냉각시스템을 채택한 데이터센터는 구역기반 HAC와 CAC의 적용이 필수적이다. 에너지 비용이 상승하고 에너지 소비량이 증가함에 따라 기존의 데이터센터는 HAC와 CAC 전략을 고려하게 되었다. 이러한 차폐 전략을 사용하면 에너지 효율뿐 아니라 IT장비의 인입공기온도를 일정하게 유지할 수 있으며 기존의 비-차폐 데이터센터(Fig. 2(a))에서 볼 수 있었던 국부과열을 어느 정도 해결할 수 있다.

Fig. 1 The 6 fundamental containment methods of data center.(7)
../../Resources/sarek/KJACR.2020.32.9.419/fig1.png

Fig. 2 Room-based air distribution methods of data center cooling.
../../Resources/sarek/KJACR.2020.32.9.419/fig2.png

HAC는 신규로 설치하거나 기존의 이중바닥 구조를 변경할 때 모두 적합한 솔루션이지만 층고가 낮거나 천장 플레넘 활용여부의 문제로 인해 구현하기가 어렵고 비용이 증가할 수 있다. 이 경우 최선의 방법은 아니지만 CAC가 실현 가능한 방안이 될 수 있다. HAC는 열-복도를 차폐하여 IT장비 발열의 고온배기를 격리하여 IT서버룸의 나머지 공간은 냉-복도 플레넘이 된다. 열-복도을 차폐함으로써 데이터센터 내부의 열기흐름과 냉기흐름이 분리된다. 이 차폐방법을 사용할 경우 랙 열(row)이 일관성 있는 열-복도와 냉-복도를 구분된 배열로 구성되어야 한다. Fig. 2(b)는 덕트연결 HAC의 기본구성을 보여준다. HAC은 독립적인 구역으로 운영되는 구역기반의 CRAC/H 유닛도 사용할 수 있다. 룸-기반 HAC에서 CRAC/H 유닛이나 전체 열-복도에 설치된 환기덕트를 사용하는 냉각시스템으로 제어할 수 있다. CAC는 HAC와 반대로 냉-복도를 차폐하므로 IT서버룸의 나머지 공간은 거대한 열-복도 플레넘이 된다. HAC와 동일하게 열-복도와 냉-복도를 구분된 배열로 구성되어야 하며, 내부의 열기흐름과 냉기흐름이 분리된다. Fig. 2(c)는 CRAC/H 유닛과 이중바닥(raised floor)이 설치된 데이터센터의 기본적인 CAC 구성을 보여준다. 다양한 재질의 파티션으로 열/냉-복도를 차폐하는 솔루션이 구현된다. HAC 및 CAC 시스템의 유형과 상관없이 관리자는 데이터센터 내부에서 업무를 수행해야 한다. 이러한 영역을 적정온도로 유지해야하고 범위초과에 대해 OSHA규정(10) 또는 ISO 7243(11) 지침을 위반하지 않도록 해야 한다. HAC시스템은 비-차폐 영역이 냉-복도와 동일한 온도가 되고 CAC시스템은 비-차폐 영역이 열-복도와 동일한 온도로 유지된다.

최적의 성능을 유지하기 위해 열기나 냉기 누출이 없는 HAC와 CAC에 대해 이론적인 분석이 수행되어야 한다. 이중바닥 누기율은 일반적으로 25~50%인 반면 차폐시스템 누기율은 일반적으로 3~10%이다.(9) HAC와 CAC가 적용된 데이터센터 공기분배시스템은 Table 1의 두 가지 온도조건을 사용하여 분석 가능하다. 첫 번째 온도조건은 IT장비 인입온도가 ASHARE의 권장범위인 27℃이하로 유지되는 조건이다. CAC는 비-차폐 영역인 열-복도 측으로 랙 서버를 유지관리 할 경우, IT장비와 작업자에 영향을 주는 온도를 구분한다. 그러나 HAC는 비-차폐 영역(냉-복도)의 온도가 IT장비 인입온도와 동일하게 유지되어야 한다. 두 번째 온도조건은 비-차폐 영역의 온도를 작업자를 위한 실내온도인 24℃로 이하로 유지하는 것이다. CAC는 비-차폐 영역인 열-복도의 적정온도를 유지하기 위해 IT장비 인입공기온도를 상당히 낮게 제어해야할 가능성이 증가하고, HAC는 IT장비 인입온도가 비-차폐 영역인 냉-복도 온도와 동일하게 제어해야한다. 본 연구에서, HAC와 CAC의 냉각시스템 공기분배 효율평가는 IT장비의 운영환경(4)과 작업자의 쾌적성(12)을 모두 고려하여 평가하였다. ISO 7243의 온열환경지수 WBGT(wet bulb globe temperature) 기준 OSHA규정에 따라서 데이터센터 작업자는 연속적인 경작업(light work)시 30℃로 이하로 유지해야한다. 이것은 작업자가 냉-복도에서 작업을 하는 것으로 규정하였다. IT장비의 발열을 효과적으로 제거하기 위한 IT공조환경의 적합성 (작업자 WBGT의 온도/습도 운영범위를 고려

Table 1. A baseline to compare HAC and CAC, which are analyzed under two conditions

Temperature conditions

HAC system

CAC system

IT inlet air temperature

18~27℃ the ASHARE recommended(4)

Cold aisle(un-contained)

Cold aisle(containment)

Work environment temperature

24℃ a standard indoor design temperature(12)

Cold aisle(un-contained)

Cold aisle(containment)

3. 수치해석 모델링

3.1 CFD 시뮬레이션 개요

CFD 해석에 사용된 소프트웨어는 Future Facilities의 6SigmaRoom R14를 사용하였다. 6SigmaRoom은 데이터센터의 설계 및 운용에서 필요한 기능을 갖춘 종합 해석 프로그램이다. 속도, 습도, 압력, 온도 등 다양한 변수들을 고려한 복잡한 데이터센터 전용 냉각시스템을 해석가능하다. 수치해석에서 사용된 기본 알고리즘은 표준 k-ε 난류모델이며 계산영역을 다중 블록으로 구성하여 MPI(Message Passing Interface) 병렬 계산 기법이 적용되었다.(13) 가장 큰 특징은 데이터센터를 구성하는 전 세계의 거의 모든 IT장비, 냉각시스템의 정보를 포함한 데이터베이스가 구축되어 있다. 따라서 실제 데이터센터의 상황을 정확하게 모델링 할 수 있다. 다른 상용 CFD 프로그램과 비교하여 최신 냉각시스템를 포함하고, 다양한 문제들을 해결할 수 있는 폭넓은 유연성을 갖는다. 대표적인 글로벌 데이터센터 설계 프로젝트(14,15)에 사용되는 등 해석의 신뢰성을 확보하고 있다. 본 연구에서는 국내의 최고의 S 통신사 데이터센터 4층 IT서버룸을 대상으로 하는 3D 가상의 상면(white space)을 모델링하였다. CFD 분석을 위한 해석 공간은 Fig. 3(a)과 같다. 해석 대상인 IT서버룸은 총 10개의 열(row)로 구성되어 있고 각 열 마다 10개의 랙-서버가 배치되어있다. 열-복도 간격은 2개의 바닥타일인 1,220 mm와 냉-복도 간격은 3개의 바닥타일인 1,830 mm이다. 총 6개의 CRAH 유닛으로 룸-기반 냉각방식을 적용하였다. 본 해석에서는 HAC 방식과 CAC 방식을 각각 비교분석하였다. HAC의 환기경로는 덕트와 RA챔버를 설치하여 CRAH 유닛과 연결하였다. 해석에 사용한 경계조건은 Table 2와 같다.

Fig. 3 IT server room thermal modeling for CFD simulation.
../../Resources/sarek/KJACR.2020.32.9.419/fig3.png

Table 2. Simulation boundary conditions

Room size(m$^{2}$)

410

Room height(mm)

4,800

Raised floor height(mm)

500

False ceiling height(m)

N/A

Number of racks

100 EA

Rack IT limit(kW/rack)

8.8~16

Number of CRAH unit

6 EA

Cold aisle/Hot aisle

HAC and CAC

Rack porosity(%)

35

Tile porosity(%)

25

Mesh grid size

2,447,462(HAC)/2,003,457(CAC)

CFD Solver

k-Epsilon turbulence model

3.2 기본 해석모델 구성

3.2.1 랙-서버

10개의 열에 설치되는 랙-서버는 총 100개 된다. Fig. 3(b)의 랙-서버 해석 모델은 A-type 고밀도(high-density)와 B-type 중밀도(medium-density)의 두 개의 종류가 적용되었다. 랙-서버의 전력밀도에 따라 적용된 캐비넷의 크기도 달라진다. Fig. 3(a)은 평면상에 배치된 두 종류의 랙-서버의 전력부하를 보여준다. 16 kW/rack의 A-type 40개와 8.8 kW/rack의 B-type 60개가 설치되어 총 전력부하는 1,168 kW(2,850 W/m$^{2}$)이다. 랙-서버 내부의 장비 구성은 다양한 조합이 가능하기 때문에 simplified rack model을 적용하였다. 기류의 흐름방향은 전방흡기(front vent)를 통해 차가운 공기가 유입되고, 후방배기(rear vent)를 통해 뜨거운 공기가 배출된다. 랙 캐비넷의 빈 슬롯에 blanking panel을 설치하는 것을 가정하여 랙-서버 내부의 누기율은 5%로 설정하였다. IT서버의 공기 유입구와 배출구의 온도차(ΔT)는 15℃로 일정하다고 가정하였고 이에 따른 각 랙-서버의 필요풍량은 각각 3,200 m$^{3}$/h (A-type)와 1,800 m$^{3}$/h(B-type)이다.

3.2.2 IT서버룸(Solution Domain)

해석 대상인 IT서버룸 solution domain 3D 모델은 Fig. 3(c)와 같다. 해석 영역은 IT서버룸 내부로 한정하였고, 도메인 외부로 부터의 열전달 및 물질 전달은 고려하지 않았다. 수치해석을 수행하기 위해 사용한 격자의 종류는 unstructured cartesian grid이며, 기본모델의 총 격자수는 약 2,450,000개이다. 데이터센터는 외부의 기상에 인한 영향, 일사부하를 포함한 외부 냉방부하는 없는 것으로 가정하였다.

3.2.3 열-복도 및 냉-복도차폐

IT 서버룸의 공기분배방식인 HAC 해석모델은 Fig. 4(a), CAC 해석모델은 Fig. 4(b)와 같다. HAC 차폐구조의 높이는 각 열의 랙-서버 높이와 동일하며 제거된 발열이 CRAH 유닛으로 돌아갈 수 있도록 상부에 환기덕트가 구성되어 있다. 각 열-복도마다 설치된 분기덕트는 환기챔버와 다시 연결되는 구조이다. CAC 차폐구조의 높이도 각 열의 랙-서버 높이와 동일하다. 랙-서버 높이가 상이한 구간의 경우 높은 것을 기준으로 차폐구조를 모델링하고, 높이차만큼 측면을 차단하여 누기를 방지하였다. 덕트에서의 누기는 없는 것으로 가정하였으며, 차폐구조의 출입구 하부의 틈새 외에는 누기가 없는 것으로 가정하였다.

Fig. 4 Unit modeling of a HAC and CAC system for CFD simulation.
../../Resources/sarek/KJACR.2020.32.9.419/fig4.png

3.2.4 CRAH 유닛

Table 3은 냉방시스템인 CRAH 유닛의 해석 모델의 상세정보와 형상을 보여준다. 이중바닥을 통한 하부급기방식인 HAC와 CAC시스템 구분과 상관없이 송풍방식을 하부토출(down-flow)방식을 적용하였다. EC Fan은 각 CRAH 유닛마다 3개씩 설치되어 있다. HAC 시스템은 CRAH 유닛 상부에 연결된 환기챔버를 통해 환기되고 CAC 시스템은 개방된 열-복도로부터 CRAH 유닛의 환기그릴을 통하여 유입된다.

Table 3. Detailed specification of CRAH unit for CFD simulation

../../Resources/sarek/KJACR.2020.32.9.419/tbl3.png

4. CFD 시뮬레이션 결과

열-복도 및 냉-복도의 차폐와 CRAH 유닛의 가동상태에 따라 총 4개의 CFD 해석 대안을 설정하였다. Table 4는 CFD 해석 대안을 보여준다. ALT-1과 ALT-2의 구분은 정상적인 냉각시스템 운영조건에서 HAC와 CAC 시스템이며, 6대의 CRAH 유닛 중 1대가 가동이 불가한 비상상황을 가정한 ALT-3과 ALT-4 또한 HAC와 CAC 시스템의 구분이다. 기본적으로 데이터센터는 CRAH 유닛을 비상시를 고려하여 총 6대가 n+1인 7대의 용량을 갖도록 설계한다. 공통적으로 이중마루를 통한 바닥급기를 하는 방식이기 때문에 내부의 적정한 풍압을 유지하여 치환공조의 형식을 취하기 때문에 어느 위치의 CRAH 유닛이 가동이 중단이 되어도 큰 차이는 없는 것으로 판단되지만, 양쪽 끝에 위치한 CRAH 유닛이 직선거리에서 담당하는 랙-서버의 수량이 가장 적기 때문에 배제하고 중앙의 CRAH 유닛이 가동 중단된 상황을 가정하여 시뮬레이션을 수행하였다.

Table 4. Simulations adopted in four cases

../../Resources/sarek/KJACR.2020.32.9.419/tbl4.png

4.1 정상 냉각운전 조건(ALT-1 and ALT-2)

정상 냉방운전은 6개의 CRAH 유닛이 모두가 가동되는 조건에서의 HAC(ALT-1)와 CAC(ALT-2)의 열성능 및 IT공조환경을 평가하였다.

4.1.1 IT서버룸 온도분포

Fig. 5(a)는 ALT-1 : HAC 시스템의 바닥에서부터 각각 0.2 m(하단), 1.0 m(중간), 1.8 m(상단)의 높이에서 랙-서버 주변 온도분포를 보여준다. ALT-1은 대부분의 냉-복도 온도분포가 약 16℃를 유지하고 있다. CRAH 유닛에서의 취출 온도인 15℃에서 1℃ 미만으로 온도상승을 잘 제어하고 있다. 이것은 CRAH 유닛에서 냉각된 공기가 각 서버로 공급되는 경로에서 열손실이 거의 없이 잘 분배되는 것으로 볼 수 있다. 즉, HAC 시스템 본래의 의도대로 공기 재순환이 잘 방지되고 있다고 판단된다. Fig. 5(b)의 IT서버룸 수직단면에서의 온도분포를 보면, 9번째와 4번째 랙-서버 위치에서의 단면과 환기챔버 단면에서의 온도 분포를 확인할 수 있다. 각 높이별 수평단면의 온도분포와 유사하게 냉-복도에서는 균일한 분포를 보이고 있지만 열-복도에서는 26~30℃의 온도편차를 보이고 있다. 이것은 A-type 고밀도 랙-서버(16 kW/rack)가 설치된 구간에서 열-복도 온도가 더 높게 분포하고 주변에 일부 영향을 주는 것으로 확인된다. 그러나 ALT-2 : CAC 시스템은 Fig. 6(a)와 같이 냉-복도의 온도는 CRAH 유닛 취출온도 15℃를 유지하지 못하고 최대 약 5℃ 상승한다. 이것은 열-복도가 밀폐구조 및 환기덕트로 연결된 HAC 시스템에 비해 개방된 구조의 상대적으로 넓은 영역으로 내부의 고온의 공기가 즉각적으로 CRAH 유닛으로 환기되지 않고 다시 냉-복도로 유입될 수 있는 잠재력을 갖고 있기 때문이다. Fig. 6(b)는 고밀도 랙-서버가 있는 영역의 2번째 냉방기 위치에서 온도 상승이 최대에 달하는 것을 보여준다. 이중마루 하부 동일구역

Fig. 5 Contours of temperature of HAC system in normal cooling condition.
../../Resources/sarek/KJACR.2020.32.9.419/fig5.png

Fig. 6 Contours of temperature of CAC system in normal cooling condition.
../../Resources/sarek/KJACR.2020.32.9.419/fig6.png

Table 5. The mean air temperature of cold aisle and got aisle in normal cooling condition.

Mean air temperature(℃)

HAC system

CAC system

Cold aisle

16.43

19.38

Hot aisle

30.57

31.97a

4.1.2 IT서버룸 기류분포

Fig. 7은 각각 이중바닥 내부 0.2 m의 높이에서 CRAH 유닛에서 취출하는 공기의 기류분포 및 열-복도와 냉-복도 내부의 기류분포를 보여준다. 냉-복도의 수직단면을 보면, ALT-1와 ALT-2 모두 3번째 랙-서버 위치까지 10 m/s 이상의 높은 기류속도를 유지하고 6번째 랙-서버 위치까지는 약 6 m/s 그리고 그 이후는 4 m/s 이하의 기류분포를 보였다. ALT-1의 열-복도는 차폐구조로 되어 있기 때문에 2 m/s 이하의 비교적 낮은 기류속도를 유지하고 있고 상부에 연결된 덕트를 통하여 원활하게 열기를 배출하는 것으로 예상된다. 열-복도가 개방된 형태인 ALT-2는 또한 2 m/s 이하의 비교적 낮은 기류속도를 유지하고 있으며, CRAH 유닛이 위치하는 냉-복도에서 열-복도에서 배출된 발열이 4~6 m/s 속도로 CRAH 유닛 상부로 유입되는 것으로 분석되었다. 그러나 냉-복도는 차폐구조로 되어있기 때문에 공기가 혼합되지는 않는다. 시뮬레이션 분석결과, IT서버룸 내부 냉-복도의 기류분포는 CRAH 유닛에 근접한 부분은 상대적으로 높은 기류속도를 보이고 특히, 10 m/s 이상의 높은 기류속도는 역(-)압력이 발생하여 랙-서버의 인입구에 적정한 풍량을 공급하기 어렵다.

Fig. 7 contours of air velocity in normal cooling condition; (a) ALT-1 : HAC and (b) ALT-2 : CAC.
../../Resources/sarek/KJACR.2020.32.9.419/fig7.png

4.1.3 랙-서버 인입 공기온도

데이터센터의 냉각시스템 열성능 평가에서 가장 핵심적인 요소는 랙-서버의 인입 공기온도의 분포이다. 너무 낮아도 에너지 낭비의 요인이 생기고 너무 높아도 서버의 발열을 효과적으로 제거하지 못한다.(16,17) 데이터센터의 IT공조환경기준은 ASHRAE의 가이드라인(4)이 널리 사용되고 있으며, 적정 서버 인입 공기온도 기준을 제시하고 있다. 본 수치해석의 결과에 대한 적정성 판단은 ASHRAE의 온도기준을 적용하였다. Fig. 3(a)은 100개의 랙-서버의 위치를 표시한 ID번호(A01~J10)를 보여준다. Fig. 8은 HCA를 채택한 ALT-1의 100개의 랙-서버로 공급되는 평균 인입온도 분포를 보여준다. 결론적으로 100%의 랙-서버 모두 ASHRAE의 권장온도 범위에서 가동되기 때문에 매우 안전한 상태이다. 그러나 앞에서 분석된 기류분포에 따르면 기류속도가 높은 1번째 랙-서버와 기류속도가 낮은 10번째 랙-서버는 다른 것에 비해 적정 풍량의 공급이 되지 않아 상대적으로 높게 분포한다. 그럼에도 불구하고 최대 인입온도는 20.6℃(평균 16.5℃)로 매우 적정하다.

Fig. 8 The mean inlet air temperature of 100 rack servers with HAC system in normal cooling condition.
../../Resources/sarek/KJACR.2020.32.9.419/fig8.png

Fig. 9 The mean inlet air temperature of 100 rack servers with CAC system in normal cooling condition.
../../Resources/sarek/KJACR.2020.32.9.419/fig9.png

반면에 Fig. 9의 CAC를 채택한 ALT-2의 경우는, ALT-1와 비슷한 기류속도를 보이지만 많은 랙-서버에서 인입공기가 높게 분포한다. 그렇지만 모든 랙-서버가 ASHRAE의 권장온도 범위를 만족하는 것으로 분석되었다. 그러나 5개의 랙-서버인 5%는 26℃ 이상으로 ASHRAE의 권장온도 상한범위에 매우 근접하는 것으로 나타났고 모두 A-type 고밀도 랙-서버가 설치된 구간이다. 그 중에서도 최대 인입공기온도는 27.0℃(평균 18.5℃)로 ALT-1에 비해 무려 6.4℃나 높았다. 결과적으로는 HAC와 CAC는 100대의 랙-서버 모두 100% ASHRAE의 권장온도 범위를 유지하고 있다. ASHRAE에서 제시하는 허용온도 범위인 15~32℃는 IT서버가 정상적으로 가동하는데 큰 문제는 없다. 그러나 장기간 이러한 상태가 유지될 경우, IT장비에 지속적으로 영향을 주어 고장(downtime)이 발생할 가능성이 커진다. 시뮬레이션 분석결과, 랙-서버의 인입공기온도 분포는 ALT-1이 ALT-2보다 매우 안정적인 상태를 유지하고 있었다. 즉, 열-복도를 차폐하여 공조공기공급가 혼합되지 않고 룸-기반냉각시스템의 공기분배 효율을 향상시킨다.

4.1.4 재순환율

IT서버룸의 냉각은 CRAH 유닛에서 공급하는 모든 공조공기가 랙-서버로 유입되고 발열을 제거한다. 그 후, 온도가 상승된 공기를 다시 CRAH 유닛으로 되돌아오는 것이다. 그러나 현실은 IT장비의 발열을 제거하고 상승된 공기가 CRAH 유닛으로 돌아가지 못하고 랙-서버로 다시 유입되는 재순환(recirculation)과 반대로 CRAH 유닛에서 공급하는 공조공기가 랙-서버로 유입되지 않고 바로 CRAH 유닛으로 되돌아오는 유실(bypass) 현상이 빈번하게 발생한다. 데이터센터의 냉각시스템과 공기분배시스템의 성능과 효율에 가장 큰 영향을 주는 요소는 재순환과 유실이다. 기존에 재순환과 유실현상을 설명하기 위해 RTI(return temperature index)를 제안하였다.(18) RTI는 이상적인 조건은 공조․냉각 공급과 활용이 100% 일치되어야 한다. 이것은 일반적인 룸-기반 냉각시스템에 적용가능하다. 그러나 HAC 또는 CAC와 같이 차폐구조의 경우, 열-복도와 냉-복도 사이의 누기율이 5% 이하 유지될 때 RTI는 크게 변하지 않는다. 따라서 차폐가 적용된 ALT-1과 ALT-2는 RTI를 적용하지 않았다. 그 대신, 적정 풍량이 공급되지 않는 랙-서버의 내부에서 재순환되는 공기의 량을 기준으로 재순환율(recirculation ratio)을 분석하였다. 통상적인 랙-서버의 필요 풍량($r Q_{rack}$) 계산은 각각의 IT장비가 최대부하로 운전되는 것을 가정하였으며, 공조공기 유입과 발열제거 후 배출되는 공기의 온도차를 ΔT = 15℃로 규정하였다. 랙-서버로 실제 공급되는 풍량($s Q_{rack}$)을 랙-서버의 발열 제거를 위해 필요한 풍량($r Q_{rack}$)으로 나눈 값을 100%의 밸런스 상태에서 부족한 재순환 풍량의 비율을 산출하게 된다. 식(1)은 재순환율의 계산식을 보여준다.

(1)
$$RR(Recirculation \enspace Ratio)=1-\dfrac{s Q_{rack}}{r Q_{rack}}$$

Fig. 10은 총 100개의 랙-서버의 재순환율의 분포를 보여준다. 전체적인 분포의 패턴을 보면 인입공기온도가 높은 랙-서버가 재순환율이 높은 것으로 분석되었다. 이것은 발열제거를 위해 필요한 적정 풍량이 공급되지 않았기 때문에 내부에서 재순환이 일부 발생하고 인입공기온도가 상승하는 것이다. ALT-1과 ALT-2 모두 A-type 고밀도 랙-서버가 적용된 A~D열은 16 kW/rack의 높은 발열량이 발생하기 때문에 그 만큼 공급 풍량도 많이 필요하다. 따라서 공통적으로 실제 공급되는 풍량이 부족하여 재순환율이 상대적으로 높다. B-type 중밀도 랙-서버가 적용된 D~J열은 발열제거를 위한 적정 풍량이 공급되는 것으로 분석된다. 또한 대부분 풍량이 부족한 곳은 CRAH 유닛과 가장 근접하여 설치된 1~3번째 랙-서버이며 동시에 재순환율도 높다. ALT-1의 최대 재순환율은 25.7%(평균 7.35%)로 실제 공급풍량이 필요풍량 보다 25.7% 작다는 것을 의미한다. 그러나 인입공기온도가 20.6℃로 문제는 없다. ALT-2의 최대 재순환율은 36.8%(평균 8.65%)로 상대적으로 높은 랙-서버들이 존재한다. 이러한 랙-서버들의 인입공기온도는 약 27℃로 ALT-1에 비해 상당히 높다. 즉 발열제거를 위해 필요한 풍량의 65% 수준으로 공급되고 있으며 CRAH 유닛t에서 공급하는 15℃의 공조공기가 무려 12℃ 이상 온도가 상승한 것이다. 시뮬레이션 분석결과, 랙-서버의 재순환율 분포는 ALT-1이 ALT-2보다 매우 안정적인 상태를 유지하고 있었다.

Fig. 10 The recirculation ratio in normal cooling condition; (a) ALT-1 : HAC and (b) ALT-2 : HAC.
../../Resources/sarek/KJACR.2020.32.9.419/fig10.png

4.2 비정상 냉각운전 조건(ALT-3 and ALT-4)

비정상 냉방운전은 6개의 CRAH 유닛 중 1개 고장으로 총 5대가 가동되는 조건에서의 HAC(ALT-3)와 CAC(ALT-4)의 열성능을 평가하였다. 냉각시스템은 Table 4와 같이 A-type 고밀도와 B-type 중밀도 랙-서버를 공통으로 담당하는 CRAH-03이 가동 중단되는 것으로 가정하였다. 비상시를 고려한 냉각시스템의 N+1은 6개의 CRAH 유닛의 냉각용량을 증가시켜 5개의 CRAH 유닛의 가동으로 전체의 IT부하를 담당하도록 하였다.

4.2.1 IT서버룸 온도분포

Fig. 11(a)는 ALT-3 : HAC 시스템의 바닥에서부터 수직 높이별 랙-서버 주변 온도분포를 보여준다. ALT-3은 대부분의 냉-복도 온도분포가 약 16℃로 ALT-1의 정상적인 운전상황과 유사하게 온도상승을 잘 제어하고 있다. 이것은 1개의 CRAH 유닛이 가동이 안 되지만 나머지 5개의 CRAH 유닛에서 생산한 공조공기가 각 서버로 공급되는 경로에서 큰 열손실 없이 잘 분배되는 것으로 볼 수 있다. Fig. 11(b)의 IT서버룸 수직단면에서의 온도분포를 보면, 각 높이별 수평단면의 온도분포와 유사하게 냉-복도에서는 균일한 분포를 보이고 있다. 그러나 ALT-4 : CAC 시스템은 Fig. 12(a)와 같이 냉-복도의 온도는 CRAH 유닛 취출온도 15℃를 유지하지 못하고 최대 약 3℃ 상승한다. Fig. 12(b)는 고밀도 랙-서버가 있는 영역의 2번째 냉방기 위치에서 온도 상승이 최대에 달하는 것을 보여준다. 비정상 냉방운전 조건의 시뮬레이션 분석결과, IT서버룸 내부 열-복도와 냉-복도의 온도분포는 HAC(ALT-3)가 CAC(ALT-4) 보다 안정적으로 나타났다. 그러나 5개의 CRAH 유닛의 충분한 용량으로 거의 정상적인 IT공조환경 유지가 가능하였다.

Fig. 11 Contours of temperature of HAC system under cooling fault condition.
../../Resources/sarek/KJACR.2020.32.9.419/fig11.png

Fig. 12 Contours of temperature of CAC system under cooling fault condition.
../../Resources/sarek/KJACR.2020.32.9.419/fig12.png

4.2.2 IT서버룸 기류분포

Fig. 13은 이중바닥 내부 0.2 m의 높이에서 CRAH 유닛에서 취출하는 공기의 기류분포를 보여준다. 정상 냉방운전 상태인 Fig. 7과 비교해보면, CRAH-03이 담당하는 D~F열에서는 주변의 CRAH 유닛에서 공조공기를 공급받기 때문에 2 m/s 이하의 낮은 기류분포를 나타낸다. 또한 나머지 5대의 CRAH 유닛은 더 많은 풍량을 공급해야하기 때문에 기류속도는 정상 냉방운전 조건보다 높아지게 된다. 냉-복도의 수직단면을 보면, ALT-3과 ALT-4 모두 4번째 rack server 위치까지 10 m/s 이상의 높은 기류속도를 유지하고 8번째 rack server 위치까지는 약 6 m/s 그리고 그 이후는 4 m/s 이하의 기류분포를 보였다. HCA와 CAC는 모두 차폐구조로 되어 있기 때문에 비교적 안정적인 기류속도를 유지하고 있으며 HAC는 상부에 연결된 덕트를 통하여 원활하게 열기를 배출한다. 시뮬레이션 분석결과, IT server room 내부 냉-복도의 기류분포는 ALT-3 및 ALT-4는 유사한 기류속도를 보이고 특히, 10 m/s 이상의 높은 기류속도를 보이는 구간이 정상운전 조건인 ALT-1, ALT-2보다 증가하기 때문에 많은 랙-서버의 공기유입구에 적정한 풍량을 공급하기 어렵게 된다.

Fig. 13 Contours of air velocity under cooling fault condition; (a) ALT-1 : HAC and (b) ALT-2 : CAC.
../../Resources/sarek/KJACR.2020.32.9.419/fig13.png

4.2.3 랙-서버 인입 공기온도

Fig. 14는 ALT-3의 랙-서버로 공급되는 평균 인입공기온도 분포를 보여준다. 100개의 랙-서버 모두 ASHRAE의 권장온도 범위에서 IT공조환경이 적정하게 유지되고 있었다. 기류속도가 높은 1번째 랙-서버와 기류속도가 낮은 10번째 랙-서버는 다른 랙-서버에 비해 상대적으로 인입공기온도가 높게 분포한다. 또한 CRAH-03 가동 중단에 따라 D~E열이 다른 곳에 비해 인입공기온도가 높다.

Fig. 14 The mean inlet air temperature of 100 rack servers with HAC system under cooling fault condition.
../../Resources/sarek/KJACR.2020.32.9.419/fig14.png

Fig. 15 제목The mean inlet air temperature of 100 rack servers with CAC system under cooling fault condition.
../../Resources/sarek/KJACR.2020.32.9.419/fig15.png

최대 인입공기온도는 20.2℃(평균 16.6℃)로 매우 적정하다. 반면에 Fig. 15의 ALT-4는 CRAH-03 가동 중단에 따라 B~E열이 상대적으로 랙-서버에 충분한 풍량이 공급이 되지 않기 때문에 인임공기온도가 높게 분포한다. 전체의 98%의 rack server ASHRAE의 권장온도 범위를 만족하고 2%는 ASHRAE의 허용온도 범위에 있다. 그 중, 최대 인입공기온도는 27.1℃(평균 18.1℃)로 ALT-3에 비해 4.9℃가 높다. 비정상 냉방운전 조건의 시뮬레이션 분석결과, 랙-서버의 인입공기온도 분포는 ALT-3이 ALT-4보다 안전정인 상태를 유지하고 있었다. 1대의 CRAH 유닛이 고장나도 총 필요 풍량만 만족시키면 이중마루를 통해 비교적 안정적으로 공조공기 공급이 가능하고 전체적으로 실-기반 냉각시스템의 불균형이 없는 것으로 분석되었다. 그러나 CAC의 경우, 1대의 CRAH 유닛이 고장나면 HAC 시스템과 비교하여 해당 냉-복도에 공조공기 공급이 상대적으로 원활하지 않을 것으로 사료된다.

4.2.4 재순환율

Fig. 16에서 총 100개의 랙-서버의 재순환율의 분포를 보여준다. 전체적인 분포의 패턴을 보면 인입공기 온도가 높은 랙-서버가 높은 것으로 분석되었다. ALT-3과 ALT-4의 공통적으로 풍량이 부족한 곳은 CRAH-03이 담당하는 C~E열에 설치된 랙-서버이다. ALT-3의 최대 재순환율은 24.2%(평균 8.0%)로 정상 냉방운전 조건에서보다 아주 약간 감소했지만 20% 이상인 rack server의 수는 1개에서 4개로 증가하였다. 이것은 실제 공급풍량이 필요풍량 보다 20% 이상 작다는 것을 의미한다. 그러나 인입공기온도가 19.6~20.2℃로 문제는 없다. ALT-4의 최대 재순환율은 30%(평균 10.9%) 이상의 랙-서버는 10개로 증가하였다. 이러한 랙-서버들의 인입공기온도는 22.6~27.1℃로 상대적으로 높다. 비정상 냉방운전 조건의 시뮬레이션 분석결과, ALT-4는 ALT-3에 비해 많은 랙-서버에서 재순환이 발생하고 있으며, 이러한 현상이 지속되면 IT 환경이 저하될 것으로 예상된다.

Fig. 16 The recirculation ratio under cooling fault condition; (a) ALT-1 : HAC and (b) ALT-2 : HAC.
../../Resources/sarek/KJACR.2020.32.9.419/fig16.png

5. 공기분배시스템 효율평가

CFD 시뮬레이션 결과 데이터에 근거한 비교는 Table 6에서와 같이, ALT-1에서 ALT-4까지 각각의 랙-서버 공급되는 인입공기온도를 기준으로 IT공조환경을 비교하였다. 급기온도 15℃를 기준으로 정상적인 냉각시스템 가동 시, ALT-1 : HAC와 ALT-2 : CAC의 평균 인입공기온도는 각각 16.5℃와 18.5℃로 약 2.0℃의 차이를 보였다. 또한 최대 인입공기온도는 각각 20.6℃과 27.0℃로 6.4℃의 큰 차이를 보지며, ALT-2의 일부 랙-서버는 ASHRAE 권장온도 범위의 한계에 있다. HAC를 기준으로 냉각시스템 정상가동 유무에 따른 IT 환경은, ALT-1 : 정상 냉각운전상태와 ALT-3 : 비정상 냉각운전상태는 평균, 최대 인입공기온도와 표준오차와 표준편차도 매우 유사한 형태를 보였다. 또한, CAC를 기준으로 ALT-2 : 정상 냉각운전상태와 ALT-4 : 비정상 냉각운전상태의 IT 환경도 매우 유사하였다. 냉각시스템 고장 시, ALT-3 : HAC와 ALT-4 : CAC의 평균 인입공기온도는 각각 16.6℃와 18.1℃로 약 1.5℃의 온도상승이 예상되었다. 또한 최대 인입공기온도는 각각 20.2℃과 27.1℃로 ALT-4가 5.9℃ 이상의 온도상승과 함께 일부 랙-서버는 ASHRAE 권장온도 범위를 벗어나고 있다.

Table 6. Descriptive statistics of IT environment of the ALT-1~4 : inlet air temperature of rack servers

Variable

# of rack

Mean

SE Mean

StDev

Minimum

Q1

Median

Q3

Maximum

ALT-1

100

16.503

0.129

1.286

15.000

15.143

16.795

17.277

20.570

ALT-2

100

18.480

0.384

3.839

15.000

15.043

16.785

20.775

27.000

ALT-3

100

16.648

0.145

1.447

15.000

15.112

16.790

17.690

20.200

ALT-4

100

18.105

0.341

3.407

15.000

15.030

17.215

20.242

27.100

Fig. 17은 각 대안별 인입공기온도의 범위를 보여준다. Boxplot은 4개의 대안을 상대적 비교를 위해서 각 대안의 최대값과 최소값과 중앙값(median) 및 사분위수 등 데이터의 분포를 보여준다. Fig. 17(b)에서와 같이, 95% 신뢰구간(confidence interval)의 interval plot을 분포를 보면, 냉각시스템의 정상운전과 비정상운전 모두 ALT-1, 3의 HAC 시스템이 ALT-2, 4의 CAC 시스템 보다 균일한 인입공기온도 범위를 유지하고 있다. 따라서 보다 공기분배시스템 효율이 우수한 것으로 판단된다. 그리고 CRAH 유닛의 취출온도를 15.0℃에서 18.0℃로 3.0℃를 상향해도 동일한 IT공조환경을 유지할 것으로 예상된다. 그러나 CAC 시스템도 적정한 IT공조환경을 유지고 있었다.

Fig. 17 Inlet air temperature distribution of 100 rack servers for ALT-1~4; (a) boxplot and (b) interval plot.
../../Resources/sarek/KJACR.2020.32.9.419/fig17.png

6. 결 론

본 연구에서는 데이터센터의 대표적인 에너지효율 개선 솔루션인 HAC 및 CAC의 IT공조환경을 비교분석을 위하여 S 데이터센터를 대상으로 CFD 시뮬레이션을 수행하였다. HAC와 CAC에 적용된 냉각시스템의 가동성능과 서버룸 내부의 IT공조환경의 차이를 비교하는 목적으로 수행되었다. 본 논문의 가장 큰 학술적인 기여는 고밀도 5G 환경의 데이터센터의 실제상황을 정교하게 모델링하고 운영조건을 적용하여 기존의 이론적으로 단순 비교한 HAC와 CAC 시스템의 효과를 현실적으로 구현한 점이다. 운영조건으로는 냉각시스템이 정상적으로 가동하는 상태와 1대가 고장난 미가동 상태인 비상시의 열 성능의 차이를 분석하였다. 결론적으로 공기분배시스템에서 HAC를 적용하는 것이 CAC에 비해 냉각효율이 우수한 적으로 평가되었다. 연구의 주요 결과는 다음과 같이 요약할 수 있다.

(1) 공통적으로 HAC 및 CAC 시스템의 기장 중요한 기능은 냉-복도와 열-복도를 물리적으로 구획하여 재순환과 유실현상을 효과적으로 저감하는 것이다. HAC 시스템은 정상적 및 비정상적인 냉각조건 모두에서 냉-복도 전 지역이 CRAH 유닛의 급기온도인 15℃에서 약 1.0℃ 이하로 온도 상승을 잘 억제한다. 따라서 HAC 시스템은 온도제어 측면에서 기능이 잘 작동하고 적정한 IT 환경을 유지한다.

(2) 랙-서버의 인입공기온도 및 재순환율를 고려할 때, CRAH 유닛 전체 가동하는 정상적인 냉각운전 상태와 N+1의 냉각용량이 반영된 경우, 1대 미가동하는 비상시 냉각운전 사이에 IT공조환경을 심각하게 저하하는 결정적 차이는 보이지 않는다.

(3) 랙-서버 적정 운전조건인 IT공조환경을 종합적으로 고려할 때, HAC를 적용하는 것(ALT-1, ALT-3)이 CAC를 적용한 것(ALT-2, ALT-4)보다 온도의 균질도 측면에서 약 43.2%, 재순환 저감 측면에서 14.9% 보다 안정적으로 평가된다.

(4) 급기온도 15℃의 HAC와 CAC 시스템을 비교해보면, 냉-복도와 열-복도 각각의 평균온도는 CAC가 약 3℃ 높은 분포를 보였기 때문에, HAC 시스템의 급기온도를 2~3℃를 높여도 CAC 시스템의 IT공조운영환경과 비슷하게 유지될 것은 예상된다.

(5) HAC와 CAC 시스템 두 방법 모두 열기와 냉기의 혼합을 최소화하지만, 실제 구현 및 운영상의 차이로 공조환경조건, PUE, 이코노마이저 시간에 많은 영향을 준다. 상대적으로 HCA 적용에 따라서 공조효율을 보다 증대시켜 에너지비용을 절약할 수 있으며 이에 따라 연간 PUE를 향상시킬 수 있을 것이다.

(6) 정상적인 냉각운전 상태라 할지라도, 고밀도 랙-서버에 요구되는 풍량이 크기 때문에 CRAH 유닛 토출측 기류속도가 상당히 높다. 또한 랙-서버 인입구/토출구 온도차가 더 작게 요구되는 경우, 필요 풍량은 더 증가하게 된다. 통상적인 풍량에서도 CRAH 유닛 토출측 기류속도는 10 m/s 이상을 나타내며, 이와 같은 높은 기류속도는 CRAH 유닛에서 가까운 랙-서버에 재순환 문제를 일으킬 가능성이 높다.

(7) 이를 완화하기 위해서는 급격하게 빠른 기류는 지연시킬 수 있는 인위적인 저항 막을 설치하는 등 이중마루 내부의 기류속도를 줄이는 방안에 대한 고려가 필요하다고 판단된다.

향후, 위의 결과로 적용된 HCA 시스템의 실측을 통하여 공조 에너지 감소에 대한 민감도 분석의 후속 연구가 요구된다. 이는 급기온도의 변화에 따른 직접적인 냉각열량의 감소 효과 및 COP 향상 효과 등을 구체적으로 제시하는 것이 필요할 것으로 판단된다.

후 기

이 성과는 정부(과학기술정보통신부)의 재원으로 한국연구재단의 지원을 받아 수행된 연구임(No. 2020R1F1 A1049498).

References

1 
Luo Y., Andresen J., Clarke H., Rajendra M., Maroto-Valer M., 2019, A decision support system for waste heat recovery and energy efficiency improvement in data centres, Applied Energy, Vol. 250, No. , pp. 1217-1224DOI
2 
Hwang H., 2018, Global Data Center Industry Trends, ICT & Media Policy of KISDI, Vol. 30, No. 20, pp. 8-16Google Search
3 
Kheirabadi A. C., Groulx D., 2016, Cooling of server electronics : A design review of existing technology, Applied Thermal Engineering, Vol. 105, pp. 622-638DOI
4 
2015, Thermal Guideline for Data Processing Environments, American Society of Heating, Refrigerating and Air-Conditioning Engineers, Atlanta, GA, ASHRAE TC 9.9Google Search
5 
Cho J., Yang J., Lee C., Lee J., 2015, Development of an energy evaluation and design tool for dedicated cooling systems of data centers : Sensing data center cooling energy efficiency, Energy and Buildings, Vol. 96, No. , pp. 357-372DOI
6 
Habibi Khalaj A., Halgamuge S. K., 2017, A Review on efficient thermal management of air- and liquid-cooled data centers : from chip to the cooling system, Applied Energy, Vol. 205, No. , pp. 1165-1188DOI
7 
Lin P., Avelar V., Niemann J., 2013, Implementing Hot and Cold Air Containment in Existing Data Centers, White paper #153, Schneider Electric’s Data Center Science CenterGoogle Search
8 
Niemann J., Brown K., Avelar V., , 2011, Hot-aisle vs. cold-aisle containment for data centers, APC White Paper 135 rev02, Schneider Electric-Data Center Science Center.Google Search
9 
Cho J., Kim S., Jeong Y., Park B., 2020, A Study on Performance Standard and Test Method of CRAC/H (Computer Room Air Conditioning/Handling) Units for Data Centers, Korean Journal of Air-Conditioning and Refrigeration Engineering, Vol. 32, No. 5, pp. 235-248DOI
10 
2017, OSHA Technical Manual (OTM) SECTION Ⅲ : Health Hazards, Occupational Safety and Health Administration., OSHAGoogle Search
11 
2017, ISO 7243 : 2017, Ergonomics of the thermal environment-Assessment of heat stress using the WBGT(wet bulb globe temperature) index, International Organization for StandardizationGoogle Search
12 
2017, ASHRAE Handbook-Fundamentals, American Society of Heating, Refrigerating and Air-Conditioning Engineers, Atlanta, GA., ASHRAEGoogle Search
13 
Kopecki A., 2012, Platform for optimising the design and operation of modular configurable IT infrastructures and facilities with resource-efficient cooling, The High Performance Computing Centre(HLRS), the University of Stuttgart(USTUTT).Google Search
14 
Frachtenberg E., Lee D., Magarelli M., Mulay V., Park J., 2011, Thermal Design in the Open Compute Datacenter, FacebookGoogle Search
15 
Fouladi K., Schaadt J., 2020, A Simulation-Based Approach to Data Center Thermal Efficiency Optimization, Journal of Engineering for Sustainable Buildings and Cities, Vol. 1, No. 1, 011001DOI
16 
Cho J., Woo J., 2020, Development and experimental study of an independent row-based cooling system for improving thermal performance of a data center, Applied Thermal Engineering, Vol. 169, 114857DOI
17 
Beaty D. L., 2013, Internal IT load profile variability, ASHRAE Journal, Vol. 55, No. 2, pp. 72-74Google Search
18 
Herrlin M. K., 2007, Improved data center energy efficiency and thermal performance by advanced airflow analysis, Proceedings of Digital Power Forum, pp. 10-12Google Search