Centra danych z mniejszą liczbą przestojów
Katgoria: BEZPIECZEŃSTWO IT / Utworzono: 11 październik 2023
Chociaż w ostatnich latach liczba awarii w centrach danych spadła, nie powinno to uśpić czujności operatorów i ich klientów. Specjalizujący się w certyfikowaniu data center Uptime Institute zbadał globalny rynek pod tym kątem. Ich liczba faktycznie spada, ale są one bardziej kosztowne. Są także obiekty, w których nie doszło nawet do pojedynczej awarii.
Mniej problemów z kategorii „poważne”
Według raportu Uptime Institute, w 2020 roku 78% ankietowanych centrów danych mierzyło się z przestojami. W 2021 roku było to 69%, a w 2022 już tylko 60%. Wniosek? Cały czas bardzo dużo obiektów doświadcza awarii, ale stosunkowo niewielka część zakłóceń jest traktowana w kategoriach „poważna”. Zakłócenia krytyczne oceniano historycznie na około 20% wszystkich awarii, jednak w zeszłym roku ten odsetek znacząco spadł do 14%.
Czy jest się czego bać?
Wyniki ostatnich badań oznaczają, że prawdopodobieństwo wystąpienia problemów w zewnętrznym centrum danych jest mniejsze, ale jeśli się zdarzają, mogą być kosztowne i trudne do opanowania. To zła wiadomość, bo awaria infrastruktury data center może wywołać poważne konsekwencje dla organizacji świadczących usługi w oparciu o poprawnie działającą infrastrukturę centrum danych np. firm hostingowych, e-commerce, sektora produkcji, logistyki, finansów czy SaaS. To przekłada się na wymierne straty finansowe i wizerunkowe.
Awaria AWS, jednego z największych na świecie dostawców chmury publicznej, która miała miejsce w grudniu 2021 roku i trwała kilka godzin, wpłynęła na działalność wielu globalnych firm, takich jak Netflix, Disney czy Spotify. Pożar w siedzibie OVH we Francji sprzed dwóch lat spowodował równie poważne problemy. Polscy klienci nie mogli korzystać z usług największych e-sklepów czy dostawców poczty e-mail. Nie działały także serwisy TOPR informujące górskich turystów o pogodzie i lawinach.
Podobne problemy dotykają również firm w Polsce. Przykładem jest awaria z czerwca br., kiedy to m.in. komercyjne usługi największego dostawcy usług hostingowych w kraju nie były dostępne z uwagi na awarię w centrum danych utrzymującym infrastrukturę fizyczną spółki.
Co w przypadku problemów?
Przedstawiciele rynku data center deklarują stosowanie szeregu zabezpieczeń i praktyk zwiększających bezpieczeństwo i zapewniających dostęp do danych nawet w wypadku kryzysu, ale nawet oni zwracają uwagę, że diabeł tkwi w szczegółach.
Bezpieczeństwo, głupcze!
Eksperci w zakresie technologii zwracają przede wszystkim uwagę na redundancję infrastruktury fizycznej w centrum danych, co oznacza zdublowanie wielu rozwiązań – od niezależnych źródeł zasilania podstawowego, zapasowego (w tych ich zdublowanych linii), czy wdrożonych technologii przeciwpożarowych.
Dlatego tak ważne są zapisy w umowach określające gwarantowaną dostępność usług, czyli SLA (Service Level Agreement).
Jak działa SLA? Przy SLA na poziomie 99,5% dostawca usług data center zobowiązuje się do tego, że przestój w działaniu obiektu w ciągu miesiąca nie może być dłuższy niż 3 godziny i 36 minut. Im poziom SLA jest niższy, tym ryzyko niedostępności usług dla klienta potencjalnie rośnie.
Bezpieczeństwo potwierdzone certyfikacją
Ważne by przedsiębiorstwa sprawdzały poziom bezpieczeństwa centrum danych, analizując certyfikaty i normy, których przyznanie poprzedzone jest dokładną weryfikacją. Idealnym scenariuszem jest, gdy przyznawane są one przez niezależne instytucje i wymagają cyklicznej recertyfikacji. Najbardziej zaawansowane audyty mogą zawierać nawet tysiące wymogów. Przykładowo, aby centrum danych mogło pochwalić się normą ANSI/TIA-942 na poziomie Rated 4, musi spełnić ponad 2600 różnych wymogów z obszaru architektury, mechaniki, zasilania i telekomunikacji. Dzięki temu taki obiekt można określić odpornym na awarie. Takich obiektów jest jednak tylko kilka w Europie i zaledwie jeden w Polsce.
Wieloletnie badania branży pokazują, że profesjonalne obiekty data center radzą sobie coraz lepiej, jeśli chodzi o zapewnienie odporności na awarie i ciągłość działania. Dodatkowo, zwiększa się wiedza i świadomość klientów w zakresie bezpieczeństwa. Wybierając operatora data center firmy nie kierują się już tylko ceną, a decydują się na współpracę z pewnym, sprawdzonym partnerem, który zapewni im spokój, pozwalając skupić się na rozwoju ich podstawowej działalności.
Według raportu Uptime Institute, w 2020 roku 78% ankietowanych centrów danych mierzyło się z przestojami. W 2021 roku było to 69%, a w 2022 już tylko 60%. Wniosek? Cały czas bardzo dużo obiektów doświadcza awarii, ale stosunkowo niewielka część zakłóceń jest traktowana w kategoriach „poważna”. Zakłócenia krytyczne oceniano historycznie na około 20% wszystkich awarii, jednak w zeszłym roku ten odsetek znacząco spadł do 14%.
Czy jest się czego bać?
Wyniki ostatnich badań oznaczają, że prawdopodobieństwo wystąpienia problemów w zewnętrznym centrum danych jest mniejsze, ale jeśli się zdarzają, mogą być kosztowne i trudne do opanowania. To zła wiadomość, bo awaria infrastruktury data center może wywołać poważne konsekwencje dla organizacji świadczących usługi w oparciu o poprawnie działającą infrastrukturę centrum danych np. firm hostingowych, e-commerce, sektora produkcji, logistyki, finansów czy SaaS. To przekłada się na wymierne straty finansowe i wizerunkowe.
Awaria AWS, jednego z największych na świecie dostawców chmury publicznej, która miała miejsce w grudniu 2021 roku i trwała kilka godzin, wpłynęła na działalność wielu globalnych firm, takich jak Netflix, Disney czy Spotify. Pożar w siedzibie OVH we Francji sprzed dwóch lat spowodował równie poważne problemy. Polscy klienci nie mogli korzystać z usług największych e-sklepów czy dostawców poczty e-mail. Nie działały także serwisy TOPR informujące górskich turystów o pogodzie i lawinach.
Podobne problemy dotykają również firm w Polsce. Przykładem jest awaria z czerwca br., kiedy to m.in. komercyjne usługi największego dostawcy usług hostingowych w kraju nie były dostępne z uwagi na awarię w centrum danych utrzymującym infrastrukturę fizyczną spółki.
Co w przypadku problemów?
Przedstawiciele rynku data center deklarują stosowanie szeregu zabezpieczeń i praktyk zwiększających bezpieczeństwo i zapewniających dostęp do danych nawet w wypadku kryzysu, ale nawet oni zwracają uwagę, że diabeł tkwi w szczegółach.
W interesie operatora centrum danych leży to, by zapewnić klientom jak najwyższy poziom bezpieczeństwa i ciągłości działania. Jednak po pierwsze, standardy oferowane przez ośrodki przetwarzania danych mocno się od siebie różnią, po drugie, nie zawsze można obiektywnie je ocenić, bo tylko część obiektów przechodzi niezależną certyfikację. Warto jednak zwrócić uwagę, że awaria nie zawsze musi oznaczać trwały brak dostępu do danych – jej usunięcie może być co prawda kosztowne, ale jeśli procedury i technologie na to pozwalają, klient może odzyskać dostęp do danych i usług . Inna sprawa, że wiele zależy od tego, na jaki poziom świadczonych usług oraz SLA klient się decyduje, nie wszyscy podejmują świadome decyzje co do zapewnienia ciągłości działania swoich usług, w szczególności jeżeli decyzje są kierowane elementem kosztowym - zauważa Wojciech Stramski, CEO Beyond.pl, dostawcy usług data center, chmury i Managed Services.
Bezpieczeństwo, głupcze!
Eksperci w zakresie technologii zwracają przede wszystkim uwagę na redundancję infrastruktury fizycznej w centrum danych, co oznacza zdublowanie wielu rozwiązań – od niezależnych źródeł zasilania podstawowego, zapasowego (w tych ich zdublowanych linii), czy wdrożonych technologii przeciwpożarowych.
Dlatego tak ważne są zapisy w umowach określające gwarantowaną dostępność usług, czyli SLA (Service Level Agreement).
Zapisy w kontrakcie dotyczące poziomu usług SLA to kluczowy element każdej umowy z dostawcą technologii. Powinny one zawierać nie tylko dokładne określenie poziomu świadczonych usług wraz precyzyjnym określeniem stopnia ich ewentualnej niedostępności, ale także kary w przypadku nieosiągnięcia uzgodnionych świadczeń – podkreśla Łukasz Węgrzyn, Partner i Head of IT and Data w kancelarii Osborne Clarke.
Jak działa SLA? Przy SLA na poziomie 99,5% dostawca usług data center zobowiązuje się do tego, że przestój w działaniu obiektu w ciągu miesiąca nie może być dłuższy niż 3 godziny i 36 minut. Im poziom SLA jest niższy, tym ryzyko niedostępności usług dla klienta potencjalnie rośnie.
Bezpieczeństwo potwierdzone certyfikacją
Ważne by przedsiębiorstwa sprawdzały poziom bezpieczeństwa centrum danych, analizując certyfikaty i normy, których przyznanie poprzedzone jest dokładną weryfikacją. Idealnym scenariuszem jest, gdy przyznawane są one przez niezależne instytucje i wymagają cyklicznej recertyfikacji. Najbardziej zaawansowane audyty mogą zawierać nawet tysiące wymogów. Przykładowo, aby centrum danych mogło pochwalić się normą ANSI/TIA-942 na poziomie Rated 4, musi spełnić ponad 2600 różnych wymogów z obszaru architektury, mechaniki, zasilania i telekomunikacji. Dzięki temu taki obiekt można określić odpornym na awarie. Takich obiektów jest jednak tylko kilka w Europie i zaledwie jeden w Polsce.
O bezpieczeństwie w obiekcie data center powinno myśleć się już na etapie planowania inwestycji. Wiele kwestii takich jak konstrukcja, oddzielenie stref w komorach serwerowych, wdrożone rozwiązania energetyczne czy chłodzenia, redundancja w zakresie łączności, ochrona przeciwpożarowa czy sama lokalizacja fizyczna oraz procedury operacyjne związane z codziennym prowadzeniem biznesu jest podyktowanych konkretnymi i bardzo wysokimi wymogami. Certyfikat potwierdzający, że obiekt należy do grona najbezpieczniejszych jest ukoronowaniem tego procesu. Przedstawiciele wielu branż, takich jak bankowa, logistyczna, medyczna, produkcyjna czy retail i e-commerce potrzebują nieprzerwanej ciągłości biznesowej. Zauważamy coraz większą świadomość po stronie klientów. Kto raz doświadczył awarii i konsekwencji z nią związanych - utraty zysków lub klientów i ich zaufania, nie podważa istotności bezpieczeństwa – reasumuje Wojciech Stramski.
Wieloletnie badania branży pokazują, że profesjonalne obiekty data center radzą sobie coraz lepiej, jeśli chodzi o zapewnienie odporności na awarie i ciągłość działania. Dodatkowo, zwiększa się wiedza i świadomość klientów w zakresie bezpieczeństwa. Wybierając operatora data center firmy nie kierują się już tylko ceną, a decydują się na współpracę z pewnym, sprawdzonym partnerem, który zapewni im spokój, pozwalając skupić się na rozwoju ich podstawowej działalności.
Najnowsze wiadomości
Customer-specific AI: dlaczego w 2026 roku to ona przesądza o realnym wpływie AI na biznes
W 2026 roku sztuczna inteligencja przestaje być ciekawostką technologiczną, a zaczyna być rozliczana z realnego wpływu na biznes. Organizacje oczekują dziś decyzji, którym można zaufać, procesów działających przewidywalnie oraz doświadczeń klientów, które są spójne w skali. W tym kontekście coraz większe znaczenie zyskuje customer-specific AI - podejście, w którym inteligencja jest osadzona w danych, procesach i regułach konkretnej firmy, a nie oparta na generycznych, uśrednionych modelach.
PROMAG S.A. rozpoczyna wdrożenie systemu ERP IFS Cloud we współpracy z L-Systems
PROMAG S.A., lider w obszarze intralogistyki, rozpoczął wdrożenie systemu ERP IFS Cloud, który ma wesprzeć dalszy rozwój firmy oraz integrację kluczowych procesów biznesowych. Projekt realizowany jest we współpracy z firmą L-Systems i obejmuje m.in. obszary finansów, produkcji, logistyki, projektów oraz serwisu, odpowiadając na rosnącą skalę i złożoność realizowanych przedsięwzięć.
SkyAlyne stawia na IFS dla utrzymania floty RCAF
SkyAlyne, główny wykonawca programu Future Aircrew Training (FAcT), wybrał IFS Cloud for Aviation Maintenance jako cyfrową platformę do obsługi technicznej lotnictwa i zarządzania majątkiem. Wdrożenie ma zapewnić wgląd w czasie rzeczywistym w utrzymanie floty, zasoby i zgodność, ograniczyć przestoje oraz zwiększyć dostępność samolotów szkoleniowych RCAF w skali całego kraju. To ważny krok w modernizacji kanadyjskiego systemu szkolenia załóg lotniczych.
Wykorzystanie AI w firmach rośnie, ale wolniej, niż oczekiwano. Towarzyszy temu sporo rozczarowań
Wykorzystanie sztucznej inteligencji w firmach rośnie, ale tempo realnych wdrożeń pozostaje znacznie wolniejsze od wcześniejszych oczekiwań rynku. Dane pokazują, że z rozwiązań AI korzysta dziś wciąż niewiele przedsiębiorstw, a menedżerowie coraz częściej wskazują na bariery regulacyjne, koszty oraz brak powtarzalnych efektów biznesowych. W praktyce technologia jest testowana głównie w wybranych obszarach, a kluczowe decyzje nadal pozostają po stronie człowieka. Również w firmach, które wdrożyły AI, nierzadko towarzyszą temu rozczarowania.
Europejski przemysł cyfryzuje się zbyt wolno – ERP, chmura i AI stają się koniecznością
Europejski przemysł średniej wielkości wie, że cyfryzacja jest koniecznością, ale wciąż nie nadąża za tempem zmian. Ponad 60% firm ocenia swoje postępy w transformacji cyfrowej jako zbyt wolne, mimo rosnącej presji konkurencyjnej, regulacyjnej i kosztowej. Raport Forterro pokazuje wyraźną lukę między świadomością potrzeby inwestycji w chmurę, ERP i AI a realną zdolnością do ich wdrożenia – ograniczaną przez braki kompetencyjne, budżety i gotowość organizacyjną.
Najnowsze artykuły
5 pułapek zarządzania zmianą, które mogą wykoleić transformację cyfrową i wdrożenie ERP
Dlaczego jedne wdrożenia ERP dowożą korzyści, a inne kończą się frustracją, obejściami w Excelu i spadkiem zaufania do systemu? Najczęściej decyduje nie technologia, lecz to, jak organizacja prowadzi zmianę: czy liderzy biorą odpowiedzialność za decyzje czy tempo jest dopasowane do zdolności absorpcji oraz czy ludzie dostają klarowność ról i realne kompetencje. Do tego dochodzi pytanie: co po go-live - stabilizacja czy chaos w firmie? Poniżej znajdziesz 5 pułapek, które najczęściej wykolejają transformację i praktyczne sposoby, jak im zapobiec.
SAP vs Oracle vs Microsoft: jak naprawdę wygląda chmura i sztuczna inteligencja w ERP
Wybór systemu ERP w erze chmury i sztucznej inteligencji to decyzja, która determinuje sposób działania organizacji na lata — a często także jej zdolność do skalowania, adaptacji i realnej transformacji cyfrowej. SAP, Oracle i Microsoft oferują dziś rozwiązania, które na pierwszy rzut oka wyglądają podobnie, lecz w praktyce reprezentują zupełnie odmienne podejścia do chmury, AI i zarządzania zmianą. Ten artykuł pokazuje, gdzie kończą się deklaracje, a zaczynają realne konsekwencje biznesowe wyboru ERP.
Transformacja cyfrowa z perspektywy CFO: 5 rzeczy, które przesądzają o sukcesie (albo o kosztownej porażce)
Transformacja cyfrowa w finansach często zaczyna się od pytania o ERP, ale w praktyce rzadko sprowadza się wyłącznie do wyboru systemu. Dla CFO kluczowe jest nie tylko „czy robimy pełną wymianę ERP”, lecz także jak policzyć ryzyko operacyjne po uruchomieniu, ocenić wpływ modelu chmurowego na koszty OPEX oraz utrzymać audytowalność i kontrolę wewnętrzną w nowym modelu działania firmy.
Agentic AI rewolucjonizuje HR i doświadczenia pracowników
Agentic AI zmienia HR: zamiast odpowiadać na pytania, samodzielnie realizuje zadania, koordynuje procesy i podejmuje decyzje zgodnie z polityką firmy. To przełom porównywalny z transformacją CRM – teraz dotyczy doświadczenia pracownika. Zyskują HR managerowie, CIO i CEO: mniej operacji, więcej strategii. W artykule wyjaśniamy, jak ta technologia redefiniuje rolę HR i daje organizacjom przewagę, której nie da się łatwo nadrobić.
Composable ERP: Przewodnik po nowoczesnej architekturze biznesowej
Czy Twój system ERP nadąża za tempem zmian rynkowych, czy stał się cyfrową kotwicą hamującą rozwój? W dobie nieciągłości biznesowej tradycyjne monolity ustępują miejsca elastycznej architekturze Composable ERP. To rewolucyjne podejście pozwala budować środowisko IT z niezależnych modułów (PBC) niczym z klocków, zapewniając zwinność nieosiągalną dla systemów z przeszłości. W tym raporcie odkryjesz, jak uniknąć pułapki długu technologicznego, poznasz strategie liderów rynku (od SAP po MACH Alliance) i wyciągniesz lekcje z kosztownych błędów gigantów takich jak Ulta Beauty. To Twój strategiczny przewodnik po transformacji z cyfrowego "betonu" w adaptacyjną "plastelinę".
Oferty Pracy
-
Młodszy konsultant programista Microsoft Dynamics 365 Business Central
-
Konsultant programista Microsoft Dynamics 365 Business Central
-
Konsultant Microsoft Dynamics 365
-
Konsultant Wdrożeniowy Symfonia – księgowość
-
Microsoft Fabric Engineer (MFE)
-
Data/Business Analyst (PBI/Fabric)
-
CRM consultant
-
Starszy architekt systemów rozproszonych
-
Inżynier Zastosowań AI
Przeczytaj Również
Cyberodporność fabryk: AI na straży ciągłości produkcji
Cyberataki to poważne zagrożenia wycieku danych oraz utraty zaufania partnerów biznesowych. Coraz c… / Czytaj więcej
Wnioski z NIS2: Kryzys zasobów i kompetencji w obliczu cyberzagrożeń
Dyrektywa NIS2 miała poprawić cyberbezpieczeństwo europejskich firm. W praktyce obnaża ic… / Czytaj więcej
97% firm doświadcza incydentów związanych z Gen AI – jak budować odporność na 2026
Z raportu Capgemini Research Institute „New defenses, new threats: What AI and Gen AI bring to cybe… / Czytaj więcej
Polskie firmy pod presją ransomware - nowe dane ESET
Polskie firmy mierzą się z gwałtownym wzrostem zagrożeń cybernetycznych, a najnowszy raport „Cyberp… / Czytaj więcej
Gdy AI przechodzi na ciemną stronę: złośliwe LLM-y jako nowa broń cyberprzestępców
Sztuczna inteligencja nie tylko automatyzuje procesy biznesowe – coraz częściej napędza też najbard… / Czytaj więcej
Cyberbezbronność polskich MŚP: Tylko 2% firm gotowych na starcie z AI
Polska gospodarka stoi na małych i średnich przedsiębiorstwach, ale ich cyfrowe fundamenty są kruch… / Czytaj więcej
3 na 4 projekty związane z agentową AI napotkają poważne trudności związane z bezpieczeństwem
W ciągu ostatniego roku Palo Alto Networks współpracowało z 3000 czołowych europejskich liderów biz… / Czytaj więcej

