Od lat w branży centrów przetwarzania danych istnieje zjawisko tworzenia nadmiaru mocy produkcyjnej i jej niedostatecznego wykorzystania. Do niedawna na świecie nierzadko można było zobaczyć placówkę przygotowaną na pobór energii elektrycznej przez rozwiązania IT na poziomie 10 megawoltoamperów (MVA), podczas gdy jej rzeczywiste obciążenie wynosiło tylko 2 MVA. Jeszcze bardziej powszechne było wykorzystanie mocy obliczeniowej serwerów na poziomie poniżej 10 procent i dotyczyło to nie tylko pojedynczych urządzeń czy szaf teleinformatycznych, ale całych systemów IT.

 REKLAMA 
 ERP-VIEW.PL- STREAMSOFT 
 
Społeczność zajmująca się efektywnością energetyczną i jej optymalizacją spędziła wiele lat na próbach wdrażania infrastruktury IT u klientów „na wymiar”. Pewną nadzieją była strategia modułowego rozwoju rozwiązań teleinformatycznych, dla których w nadmiarze (zgodnie z planami dalszej rozbudowy mocy obliczeniowej placówki) trzeba było zapewnić jedynie krytyczną infrastrukturę fizyczną, taką jak zasilanie i chłodzenie. Jednak w takiej sytuacji zapotrzebowanie na sprzęt IT często było znacznie zawyżone, co pozostawiało lukę pomiędzy oczekiwaniami projektowymi, a rzeczywistością.

Moc na zapas

Przyjęło się, że w tradycyjnych, korporacyjnych centrach danych jeden serwer (lub jeden procesor w serwerze) odpowiada za obsługę jednej konkretnej aplikacji. Dopiero wprowadzenie dodatkowej warstwy programowej pomiędzy sprzęt i aplikacje, czyli wirtualizacji, zapewniło bardziej optymalne wykorzystanie serwerów.

Nadal jednak sytuacja jest daleka od idealnej. Duże środowiska IT wciąż budowane są z zapasem, aby zaspokoić potrzeby użytkowników w trakcie największego obciążenia, np. w takie dni, jakimi dla sklepów internetowych są Czarny Piątek, Cyberponiedziałek, Boże Narodzenie czy okres wyprzedaży poświątecznych – zauważa Bartłomiej Raab, country manager w Vertiv Polska. – Aby zabezpieczyć się przed skutkami ewentualnej katastrofy, buduje się nadmiarowe systemy, gdzie w zapasowym centrum danych duża ich ilość jest replikowana – na wszelki wypadek.


Organiczne centra danych

Rozwiązanie tego problemu pojawiło się dopiero w przypadku bardzo dużych centrów danych, które można przyrównać do ciężarówek o wydajności superszybkich samochodów.

Są one w stu procentach zarządzane przez oprogramowanie, a dzięki unifikacji użytkowanego sprzętu do przetwarzania i przechowywania danych operator takiej placówki ma do dyspozycji dziesiątki tysięcy podłączonych do sieci procesorów i urządzeń pamięci masowej, które skutecznie działają jak jeden „organizm” – wyjaśnia Bartłomiej Raab.


Co więcej, kilka tego typu centrów danych może być połączonych ze sobą, dzięki czemu wstrzymanie pracy jednego z nich (np. wskutek katastrofy naturalnej lub planowanych prac serwisowych) powoduje jedynie niewielki spadek wydajności, a nie utratę usług.

Eksperci Vertiv wskazują, że za przykład mogą posłużyć zapytania wysyłane przez wyszukiwarkę Google. Każde z nich trafia w tym samym czasie do trzech różnych centrów danych znajdujących się w różnych miejscach na świecie. Ta placówka, która będzie najszybsza, dostarcza wyniki wyszukiwania. A jeśli któraś z nich będzie nieczynna, pozostały jeszcze dwie.

Podobne reguły dotyczą sieci, przez które wysyłane są zapytania. Jednak instalacja światłowodowych przewodów musi być zaplanowana z nadmiarem. Procedura umieszczenia kabli w ziemi oraz na dnie morza jest bardzo kosztowna. Planując nowe trasy, dostawca sieci musi zatem myśleć w perspektywie minimum dziesięcioletniej. Gdy część z jego infrastruktury jest już w pełni wykorzystana, po prostu wówczas uruchamia kolejne, niewykorzystane dotychczas połączenia światłowodowe.

Nieoczekiwane obciążenia

Dziś mamy do czynienia z bezprecedensową sytuacją, w ramach której ogrom ludzi – specjalistów i uczniów – wykonuje swoje obowiązki z domu, uczestniczy w wideokonferencjach oraz dzieli się wynikami pracy przez internet. Zauważają to także operatorzy telekomunikacyjni - w niedawnym komunikacie prasowym dyrektor ds. technologii w firmie BT stwierdził, że dotychczas w tej największej brytyjskiej sieci telekomunikacyjnej szczytowe natężenie ruchu obserwowano zwykle przez kilka godzin w niedzielny wieczór. Teraz ilość przesyłanych danych jest większa niż kiedykolwiek wcześniej i praktycznie nie spada.

I nawet jeśli łączność z niektórymi osobami stanowi wąskie gardło, cały ekosystem wciąż działa bardzo wydajnie. Także operatorzy nieustannie śledzą jakość łączy i rozbudowują je w razie potrzeby – obecna sytuacja to dla nich idealna okazja do weryfikacji elastyczności pracy własnej sieci. Tam, gdzie wymagana jest większa przepustowość, jest ona zapewniana w ciągu kilku dni. Na szczęście nie stanowi to dla firm dużego problemu dzięki temu, że wcześniej zainwestowały w swoje centra danych z dużym zapasem.

Źródło: Vertiv

PRZECZYTAJ RÓWNIEŻ:


Back to top