Від iCloud до Google Cloud Platform – хмарні обчислення та сервіси вже встигли стати частиною звичного життя містян. Утім, усвідомлення, як саме працюють ці технології, є не у всіх. The Village Україна відвідує київський дата-центр, на базі якого працює клауд-сервіс, і розповідає, як він влаштований.

Дата-центр GigaCenter відкрили на початку 2014 року. Фізичний простір для розміщення та обслуговування серверів став другим проектом групи компаній GigaGroup. Іншими компаніями групи є оператор інтернет-сервісу для корпоративних клієнтів GigaTrans та оператор хмарних сервісів GigaCloud.

Територія, на якій розташований центр обробки даних GigaCenter, – режимний об’єкт. Спеціальну будівлю звели окремо від інших між вулицями Васильківською і Ломоносова. Це приватна власність: вона закрита периметром безпеки і контрольним пунктом.

На об’єкті чотири пости охорони. Зовнішня охорона розташована на вулиці, ще три пости – у будівлі. Внутрішній периметр безпеки передбачає обмеження за входом і в’їздом автомобілів. Уся територія освітлена, її закриває паркан. На кожному куті – камера спостереження.

Дата-центр має один поверх, збудований без підвалу і горища. Інфраструктура будівлі, включно з водопостачанням, розміщена в окремому приміщенні. 1200 м² у будівлі виділено під першу чергу машинних залів, тобто це площа для розміщення серверів. Майданчик зводили з огляду на вимоги, визначені міжнародними стандартами дата-центрів.

GigaCenter є дата-центром рівня Tier 3. Це передостанній рівень cтандарту. Останній четвертий рівень рекомендується створювати військовим закладам на кшталт будівель міністерства оборони, а також лікарням та аеропортам.

Рівень відмовостійкості Tier 3, зокрема, передбачає, що протягом року дата-центр може припинити роботу (планово чи непланово) на час не більше, ніж півтори години. Якщо сумарний час зупинок центру за рік перевищує цю позначку, він зобов’язаний виплатити клієнтам штрафні санкції.

Після початку роботи GigaCenter у 2014 році дата-центр ще не припиняв роботу. Цей показник фіксує датчик на офіційному сайті компанії. Нині час безперебійної роботи центру становить понад 1300 днів, тобто з 4 квітня 2014 року.

Постійну роботу резидентів дата-центру забезпечує система заходів, спрямованих на максимальне дублювання системи безперебійного живлення. За словами керівників GigaCenter, вона дозволяє підтримувати роботу центру обробки даних протягом необмеженого часу.

Двохтрансформаторну підстанцію, яка живиться від міської електричної мережі двома незалежними лініями, дата-центр дублює за рахунок двох дизельних генераторів. При зникненні живлення від міської мережі на період спрацювання системи та запуску дизельних генераторів електроживлення інженерної інфраструктури забезпечується від системи безперебійного живлення.

На повній потужності кожен із генераторів може пропрацювати вісім годин. Також передбачені угоди про рівень послуг (SLA) із двома незалежними постачальниками палива, які виконують дозаправку агрегатів при довгостроковій відсутності електроживлення.

Дмитро Іщук

директор з інформаційних технологій GigaCenter

Вхід

Дата-центр має звичайний і вантажний входи. Як і всі наші сервіси, вони цілодобово працюють сім днів на тиждень. Міграція, як ми називаємо прийом серверів від клієнтів, планується заздалегідь. Головний інженер повинен знати, яке «залізо» буде переїжджати, якої конфігурації, потужності та вимог експлутації. Це здійснюється завдяки заявці на вхід. Тобто клієнт приїздить до нас за чітко вибудованим сценарієм.

Окрім того клієнт заздалегідь створює список людей, яким дозволяється прохід на об’єкт у певний день. Це можуть бути адміністратори, технічні працівники тощо. Відповідна процедура прописується в угоді з клієнтом. До того ж надавати доступ на об’єкт може лише відповідальна особа зі списку. Тільки від неї ми приймаємо заявки на пропуск.

Своєю чергою, вантажний шлюз дозволяє центру прийняти обладнання клієнта. Тут ми приймаємо сервери на колокацію. «Залізо» проходить через вантажний шлюз, а люди – через так званий «пасажирський» вхід.

Двері вантажного шлюзу може відчиняти лише охоронець. Це недоторкана особа, охоронця ми завжди бачимо за броньованим склом: він контролює всі входи і виходи.

Диспетчерська

Розвантажують обладнання у шлюзі диспетчери. Це перший рівень підтримки. Ми називаємо його «розумними руками». До обов’язків диспетчерів входить підтримка внутрішньої безпеки.

Також вони стежать за загальними модулями серверів, камерами внутрішнього відеоспостереження, а також опрацьовують побажання клієнтів. До прикладу, це може бути прохання перезавантажити систему у певний момент. Зокрема, якщо клієнти не можуть фізично бути присутніми у дата-центрі. Усі ці процеси не передбачають імпровізації, вони виписані у чіткі сценарії.

Своєю чергою, енергетичне забезпечення та охолодження у дата-центрі – відповідальність інженерів. За ухвалення рішень і погодження співпраці з клієнтами відповідають головний інженер і менеджемент.

Для клієнтів диспетчерська – це місце, де можна залишити речі та отримати необхідний рівень доступу. Передбачено у кімнаті й кілька робочих столів. Утім, у 90 % випадків айтішники перебувають біля свого «заліза» у серверних.

Термін перебування у дата-центрі ми не обмежуємо. Але ми повинні заздалегідь знати, коли клієнти приїдуть і приблизно скільки часу перебуватимуть на місці. Ми намагаємося розбивати резидентів на різні часові проміжки: щоби не було браку місця чи уваги диспетчерів.

Серверні модулі

Сірий – це оптимальний колір для подібної інфраструктури, він застосовується у більшості дата-центрів як стандарт. Це нейтральний тон, він не напружує очей. До того ж ми використовуємо його як тло у символіці нашого бренду.

Модулі з серверами ми поділяємо на індивідуальні і загальні. Якщо індивідуальний модуль можна порівняти з окремим номером у готелі, то загальний – це гуртожиток. Це нормальна закордонна практика: на Заході більшість компаній користуються загальними модулями.

Серверні влаштовані за однією схемою: їх можна умовно поділити на гарячий і холодний коридори. Сервери споживають холодне повітря у фронті, пропускають його через себе і викидають з іншого боку вже гарячим. Відтак у зоні під стелею його підбирає кондиціонер. Таким чином забезпечується постійна циркуляція. Своєю чергою, у холодному коридорі підтримуються певні параметри температури і вологості. Адже сервери потребують сталих показників.

Дата-центр побудований за принципом пошуку індивідуальних рішень, тобто його площа не нарізана заздалегідь. Це незвична практика для українського ринку: зазвичай у нас будують готові модулі, і клієнту доводиться обирати з того, що вже є. Своєю чергою, ми дозволяємо клієнту обрати рішення.

Якщо йому треба розмістити чотири шафи в індивідуальному модулі з потужністю 20 кіловат, ми створюємо модуль у порожньому просторі – і клієнт отримує індивідуальний модуль. Тобто ми подаємо йому електроенергію, систему пожежогасіння і встановлюємо екрановані двері, а далі це вже не наша відповідальність.

Звісно, у нас є ключі від індивідуальних модулів. Та вони запломбовані і перебувають у спеціальних тубусах у сейфах. Відповідно, відчиняти двері ми можемо лише в екстрених ситуаціях, заздалегідь прописаних в угодах.

Потреба використовувати індивідуальні модулі може бути продиктована безпековою політикою компанії. Приміром, це банки, які мають особливі вимоги Нацбанку – НБУ вимагає розміщення серверів в екранованих модулях чи стійках, до того ж у різних локаціях.

Антон Хвастунов

співзасновник GigaCloud

Також у нас у групі є внутрішній замовник GigaCloud. Він орендує модуль для хмари. У цьому модулі стоїть «залізо», яке забезпечує роботу сервісу віртуального напрямку. Хмара GigaCloud побудована трикластерним чином: один кластер у GigaCenter, другий у дата-парку Bemobile на Куренівці, а третій – у Варшаві.

Багатьох клієнтів турбує питання безпеки в Україні, пов’язане з певними правовими і неправовими чинниками. Тому ми створили кластер у Варшаві, щоби надати можливість клієнтам розміститися в країні, яка працює в іншому юридичному полі. Окрім того для нас це відправна точка у роботі з зовнішнім ринком.

Артем Коханевич

генеральний директор GigaCloud

Коли ви відкриваєте магазин, то повинні розуміти, що будете продавати, на яку аудиторію орієнтуватися і яку локацію хотіли б обрати. Але зазвичай бізнесмени не будують свої магазини. Краще пройтися по торгових центрах, які здають площу в оренду.

Власне, технологію хмари можна порівняти з цим процесом. Клауд-сервіс дозволяє зосередитися на тому, що ви робите, не відволікаючись на те, де розміщені ІТ-системи і що це взагалі за системи. Тобто це можливість делегувати сервісні ІТ-завдання професійному постачальнику рішень.

Десять років тому кожне підприємство повинно було будувати окремий центр обробки даних. Та зараз усі розуміють, що швидше і дешевше, за правильного розрахунку, орендувати кілька стійок у професійного постачальника.

Як працює клауд-сервіс? Жодного дива тут немає. В основі хмари лежать ті самі технології і те саме обладнання, що й для індивідуального використання. Та у нашому випадку є завдання обслужити велику кількість клієнтів. Тож наше обладнання розроблено так, щоб умістити максимальну кількість машин і даних замовників.

На перший погляд, хмарна інфраструктура побудована так само, як серверна інфраструктура великого підприємства. Багато хмарних операторів, включно з нашими закордонними колегами, працює саме так. Та ми розуміємо, що є велика різниця між нами і великим кінцевим клієнтом, у якого на серверах працює ціла низка додатків.

Різні додатки одного клієнта добре «віртуалізуються». Ця технологія з’явилася ще в 60-х роках ХХ століття і дозволила розділити процесорні потужності і ресурси систем збереження даних між різними додатками, що працюють у кластері обчислення даних.

Цю систему можна порівняти із ванною у великій квартирі. Її ресурсу потребує уся родина, але за рахунок різних графіків кожного її члена ми можемо нею ділитися.

Власне, у хмарній інфраструктурі ми використовуємо велику кількість додатків, але розводимо ці процеси по часу. Наприклад, заробітна платня на серверах розраховується на початку місяця, податки – наприкінці, а генерацію комплексних звітів можна відкласти на нічний час.