데이터 센터

최근 수정 시각:

분류

파일:Semi_protect.png
이 문서는 비로그인 사용자의 편집이 제한되어 있습니다. 자세한 사유는 여기를 참고하시기 바라며, 편집을 원하는 비로그인 사용자는 편집 요청 기능을 이용해 주시기 바랍니다. 단, 잦은 차단 회피 등으로 인해 편집 제한이 적용된 문서는 편집 요청 또한 제한될 수 있습니다.

파일:20141216_CLO.jpg

네이버의 데이터 센터


1. 설명2. 설계 지향점3. 온도와 IDC4. 정전과 무관한 IDC5. 개인 서버 vs. IDC

1. 설명[편집]

Data Center

인터넷과 연결된 데이터를 모아두는 시설. 통신 기기인 라우터와 수많은 서버, 그리고 안정적 전원 공급을 위한 UPS 등으로 구성된다. 서버 호텔이라는 표현도 있다. 클라우드 컴퓨팅을 위한 데이터 센터는 CDC(Cloud Data Center)라고 하는데 이 역시 일반적으로는 데이터 센터라고 지칭한다. 최근의 데이터 센터들은 이러한 기능을 모두 포함하고 있기 때문이다. 그리고 CDC라고 하면 대부분은 미국질병통제예방센터를 먼저 떠올릴 것이다.

라우터가 인터넷을 구축하는데 가장 중요하다면, 서버인터넷 서비스를 만들어 내는 데 가장 중요하다. 서버를 안정적으로 운용하며, 인터넷과의 연결을 고속화하고 지리적으로 중앙집중화 시킬 필요가 있을 때 설립된다. 한정된 공간에 많이 몰아놔야 이득이기 때문에 서버는 대개 랙마운트 형을 쓴다.

님비현상을 부르는 대표적인 시설로 만국 공통이다. 이유는 규모가 어마어마하게 커서 땅을 많이 잡아먹고, 전기도 엄청 많이 먹는데, 채용 인원은 얼마 되지 않아 주변 상권 발달을 못 시키기 때문이다. 그래서 데이터 센터는 산 중턱을 깎거나, 바다를 매립한 지역에 주로 세워진다.

2. 설계 지향점[편집]

인터넷 서비스를 제공하는 비용을 최소화하려면 서버들을 한 곳에 모아놓는 편이 유리하다. IDC는 서버가 요구하는 모든 자원을 건물 자체에서 조달할 수 있도록 만들어진다. 항온항습이 유지되는 공조기, 먼지를 제거하는 에어필터, 이중화 전원 및 전원안정화 설비, UPS 시설을 통한 정전 대비, 저지연 고대역 네트워크, 보안 및 기술지원 인력 등을 제공한다.

IDC 건물은 이런 요구사항을 달성해야 하므로 일반 사무실이나 공장과는 다른 방식으로 지어진다. 예를 들어 발열량이 엄청난 서버의 열을 신속하게 식히기 위해 공조 설비가 건물 설계시부터 대규모로 반영된다.

국내의 경우 건축법상 데이터센터용 분류가 없어 공장, 사무실 등으로만 용도 허가가 난다는 문제가 있다. 이 때문에 불필요하게 주차장, 엘리베이터, 공개공지 등 100명 단위 인원이 활용하는 건물로 건축하고 그 안에 10~20명이 근무하여 비효율적으로 운영되고 있는 실정이다.[1]

요즘은 박리다매 식의 업체가 대세가 되어 입주비가 많이 싸졌다. 30Mbps 회선[2]에 월간 5만원 하는 곳도 있다.

3. 온도와 IDC[편집]

IDC 입주 시 많은 공간을 점유하는 서버에게는 높은 비용을 지불하도록 한다. 서버들이 소비하는 전력량은 입주 면적과 비교하여 큰 차이가 없다. 그래서 소비 전력으로 비용을 책정하지는 않는다. 대신 상면 공간 단위로 가격을 책정하게 된다. 공간 단위는 U단위이며(랙형 서버 기준) 가장 작은 단위는 1U이다(블레이드 서버는 예외). 1U서버가 2U서버보다 성능도 나쁘고 가격도 비싼데도 팔리는 이유다. 따라서 IDC에 입주를 희망하는 업체는 가능한 적은 상면 공간에서 최대의 효율을 내려고 한다. 때문에 IDC에 입주하는 서버들은 전력 소비량이 엄청나며 대개 1000W내외의 전력을 소비한다. 이는 고스란히 발열로 이어진다.

이 발열을 냉각하는 공조 설비 설계가 IDC의 핵심 역량이 된다. 데이터센터가 소비하는 전체 전력에서 IT장비(서버, 스토리지, 네트워크장비 등)를 제외한 항온항습, UPS 등 비IT 장비에 들어가는 전력이 얼만지를 알아보는 지표를 PUE라고 한다. 다시 말해 데이터센터에서 사용한 모든 전력 / IT장비가 사용한 전력량이다. 낮을수록 좋고 이론상 최저 값은 1.0이다. 구식 데이터센터는 2.0~3.0 사이를 왔다갔다하고 페이스북 데이터센터는 1.07이라는 경이적인 PUE 값을 달성했다고 주장한 바 있다. 아주 추운 지방에서 외기도입 냉각방식 데이터센터를 사용해 에어컨은 커녕 선풍기도 안 틀고 운영한 덕분이다. 저 0.07은 전등이나 사무실 집기 등이 소비한 전력량이다. 여러모로 대단한 데이터센터임에는 동의하나, 측정방식 및 로우데이터를 공개하지 않아 무턱대고 신뢰하기는 조금 미심쩍은 구석이 있다.

과거 데이터센터는 방 전체를 냉각하는 폐쇄회로 냉각 방식을 사용했다. 또 평균 18도에서 20도 사이를 유지했다. 과도하게 낮은 온도 역시 서버들에게 스트레스를 유발하며, 특히 모터를 이용해 구동하는 부품들의 베어링이 냉각되면 문제가 발생할 수 있다. SSD가 아닌 HDD를 이용하는 서버들은 HDD의 플래터가 열수축에 의해 데이터 위치 오류가 발생하여 HDD가 정지, 서버 다운으로 이어질 수 있다. 구식 설계에 실내온도를 낮게 운영하도록 책정한 IDC라면 한여름에 파카 입고 손 호호 불어가며(...) 작업하는 진귀한 그러나 작업자 입장에서는 빡치는 경험을 해야 할 것이다. 2016년 이후 이런 IDC는 보기 어렵다.

최근에는 외부 공기를 이용한 냉각 방식이 대세다. 냉복도와 열복도를 분리하고 열복도에 쏟아지는 뜨거운 공기를 모아서 데이터센터 바깥으로 배출하는 방법으로 전력소비를 낮춘다. 입지 자체를 추운 곳에 선정해서 이득을 보기도 한다. 서버실을 섭씨 30도 정도로 유지해 냉각 비용을 낮추기도 한다.

최신 설계의 데이터센터는 25~30도를 유지하므로 장비 실어다 올리고 부품 좀 교체하다 보면 등줄기에 땀 몇방울 흐르는 정도다. 사실 작업자에게는 온도보다는 귀가 멍멍해질 정도의 팬 소음(서버들의 냉각팬 및 공조기 소음)과 전자파 샤워의 압박이 더 크다.

4. 정전과 무관한 IDC[편집]

정전이 일어난다 하더라도 서버가 물리적인 대미지를 받거나 고장날 확률은 낮다. 부팅 스크립트가 잘못 만들어져 있어서 부팅을 못 하는 서버가 생기기도 하지만,[3] 대부분은 자체적으로 전원 복구와 함께 자동 재부팅 및 복구 절차를 진행해서 약 10분에서 30분 정도의 시간이 흐르면 대부분 정상화된다.

하지만 PC처럼 1분 이내에 부팅이 끝나질 못하고 RAID 어레이 초기화나[4] 서비스 기동 스크립트, 심지어는 램 Initialization 등도 시간을 꽤 소비한다. 램이 2T 정도 되면 램 초기화만 해도 몇십 분 걸린다. 1초 정전으로도 약 30분 이상의 시간은 무조건 날아간다고 봐야 한다. 따라서 IDC는 절대로 정전되면 안 되지만 가끔 UPS의 설정 이상 등으로 정전되곤 한다.

IDC는 이중 삼중의 전원 백업을 한다. 둘 이상의 발전소로부터 전력을 공급받으며, 그것도 모자라 자체적인 UPS가 이중 삼중으로 구성되기도 한다. 서버 하나를 백업하는 유닛 단위의 UPS, 서버실 단위를 백업하는 배터리 기반의 Static UPS, 그리고 IDC 전체를 백업하는 다이나믹 UPS(발전기 장착 사양)를 장착한다. 이 중 유닛 단위 UPS는 입주한 기업이 원가절감을 위해 생략하는 추세다. 데이터센터가 죽어버렸는데 서버 혼자 살아봤자 네트워크가 죽으면 별 의미가 없기 때문이다.

구글은 아예 서버와 장비를 직접 설계하고 제작하므로 서버 내부에 배터리를 달아버려 최악의 경우에는 서버 내부 배터리로도 견딜 수 있게 한다. 참고로 전세계 서버 출하량 통계에 구글 자체 제작 IDC용 서버를 포함하면 다섯 손가락 안에서 왔다갔다할 정도다. 하지만 이 분야 최강자는 단연 아마존닷컴. AWS 하나만으로 설명 끝이다. AWS 하나만으로 구글 데이터센터 이상의 서버 수요가 있다보니 정말 미친듯이 서버, 전원장치, 변전소를 찍어낸다. 특히 트위치, 넷플릭스, 아이클라우드[5]가 AWS에 있다보니 훨씬 규모가 커져버렸다.

서버실 단위의 정전은 IDC에서도 일어날 수 있다. 서버 일부가 고장나서 타버리는 바람에 합선을 일으킨다든지(랙 단위로 전원이 차단된다. 화재가 발생하면 더 넓은 범위가 셧다운) 공조기 고장으로 열배출이 불가능해져서 방 하나 분량을 강제 셧다운하는 경우가 있다.

특히 금융권 서버가 셧다운되면 배상금이 많이 나온다. 그래서 IDC에서도 클래스를 나눠서 강한 보호를 제공하는 클래스는 돈을 더 받는 등의 방식으로 차별화한다.

다른 분야에서는 에어컨 따위에 UPS를 물리면 바보짓이라 할 것이다. 그러나 IDC에서는 서버를 꺼서라도 냉각기에게 우선적으로 전력을 보낸다. 왜냐면 서버가 50도 이상 뜨겁게 달아오르면 물리적인 대미지가 가기 때문이다. SSD는 데이터가 증발할 것이고[6] CPU도 수명이 깎일 수 있다. 온도가 100도 이상 오래 유지되면 전선 피복이 녹아내리면서 화재가 발생한다. 이런 사태까지 가면 시설이 망가져 데이터센터의 생명이 끝난다. 자연풍 냉각을 사용하는 데이터센터는 냉각기가 선풍기와 마찬가지인지라 전력 소비량이 적어 냉각기의 우선 순위가 높지 않다. 그러나 구식 데이터센터는 서버의 전력량 이상의 전력이 냉각기 돌리는데 쓰이므로 냉각기의 우선순위가 중요해진다.

국내 전기요금이 너무도 저렴해서 해외 데이터센터가 몰려온다는 기사가 2013년부터 최근까지 자주 등장하지만, 데이터센터는 산업용 전기요금의 적용을 받지 못한다. 대개 일반용(을) 고압A 군의 적용을 받아 대략 kWh당 60원에서 190원 사이의 요금을 내는데, 이는 전기요금이 비싸기로 유명한 일본이나, 미국 동부(뉴욕) 등에 비하면 저렴하겠지만, 미국 캘리포니아 북부, 시애틀, 스웨덴 북부, 홍콩 등에서 데이터센터를 위해 적용하는 특가요금에 비하면 많게는 10배(ex. 스웨덴 북부: kWh당 0.7원) 정도 비싸게 받고 있어 정확한 사실은 아니다.

사실 대부분의 해외기업은 국내 클라우드 서비스를 위해 국내 기업이 보유한 데이터센터의 상면을 임대해서 자사 데이터센터를 운영하고 있으며, 글로벌 IT기업 중에서는 아마존닷컴Amazon Web Services마이크로소프트Microsoft Azure가 한국에 자체 건축 데이터센터를 두고 있다.

5. 개인 서버 vs. IDC[편집]

오늘날 기술의 발전으로 개개인 역시 서버를 소유하고 자기 집에서 웹 서비스를 제공할 수도 있다. 이에는 장단점이 있다.

  • 자가 소유가 절대적으로 유리한 경우
    보안이 극도로 중요한 내용은 절대로 IDC에 두면 안 된다. 영업비밀 중에는 하드디스크 하나에 담을만한 내용이 수백억 원에 달하는 것도 있다. 국가기밀 및 군사기밀 역시 마찬가지이다.

  • IDC가 절대적으로 유리한 경우
    전기요금, 접속속도, 접속자가 몰리는 상황, 돌발상황에 빠르게 대처해야 할 환경일 때 IDC가 필요하다.


[1] 이는 한국의 시대착오적인 멍청한 규제중 하나로 손꼽힌다. 네이버도 데이터 센터 구축을 할때 사무실로 용도허가를 내어 엄청난 낭비를 했다. 이 공간을 창의적으로 활용하려고 어떻게든 노력한게 지금 각 특유의 디자인이 되었다.[2] 속도가 아니다. 추가요금 없이 사용할 수 있는 대역폭이 30Mbps라는 것이다. 보통 회선은 1Gbps를 제공한다.[3] 애초에 이런 서버들은 IDC 정전이 아니라 단순 수동 재부팅 과정에서도 못 살아난다. 첫 설정 자체가 잘못된 것.[4] 하드디스크가 주렁주렁 달린 레이드 어레이는 하드 디스크에 시간차를 줘 기동시킨다. 안 그러면 전력량 과다로 또 차단기 떨어진다. 근데 이 어레이는 모든 디스크가 기동하고 나서야 초기화가 끝나고 부팅을 시작하기 때문에 PC보다 기동 시간이 훨씬 늦다. SSD 어레이는 예외.[5] 다만, 앞의 두 서비스와 달리 아이클라우드는 AWS뿐만 아니라 MS 애저와 자체 서버에서도 동작한다.[6] SSD의 일반적인 동작시 온도는 40~50도 선이고 이를 넘어서 70도 이상으로 올라가면 물리적인 손상이 발생하기 시작한다. 하드디스크와 마찬가지로 정보를 저장한 셀이 손상되면 그대로 끝이다.