Przejdź do głównej treści

Wirtualizować czy nie?

Katgoria: IT Solutions / Utworzono: 10 wrzesień 2014

Wirtualizować czy nie?

Wirtualizacja jest dzisiaj jednym z kluczowych trendów, jaki możemy obserwować na rynku IT. Jednym tchem mówi się o oszczędnościach, konsolidacji zasobów, łatwości zarządzania. Moda na wirtualizację, bo tak to trzeba nazwać, przyciąga ogromną rzeszę zwolenników, sprawia, że w jej kierunku podążają ci najwięksi i ci mali, firmy i użytkownicy indywidualni.


 
Wydaje się, że rozwój w kierunku wirtualizacji jest nieuchronny i, w wielu przypadkach, uzasadniony. Jednak pośród opinii huraoptymistycznych można usłyszeć także głosy zdrowego rozsądku mówiące, że wirtualizacja nie jest receptą na wszystko. Przyjrzyjmy się zatem bliżej głosom z dwóch stron.

Oszczędność, optymalizacja zasobów – co jeszcze?

Branża informatyczna została opanowana przez wirtualizację głównie dlatego, że aż 70-80% serwerów fizycznych nie wykorzystuje swojej mocy obliczeniowej w sposób optymalny. Dodatkowo, głośny marketing firm wdrażających rozwiązania wirtualizacyjne mówi o konsolidacji serwerów w stosunku nawet 6:1, zwracając w ten sposób uwagę na duże oszczędności. Do tego dochodzi transformacja i dynamiczny rozwój narzędzi umożliwiających wirtualizację. Nowe wersje wirtualizatorów czy rozwiązań sprzętowych dają szerokie spectrum możliwości dla zastosowania wirtualizacji i znacznie ułatwiają jej realizację.

Obecne środowiska wirtualne budowane są w oparciu o mechanizmy wysokiej dostępności (HA), które umożliwiają bezprzerwową pracę firmy w przypadku awarii jednego z fizycznych hostów. Posiadają mechanizmy potrafiące same dystrybuować maszyny wirtualne, by w sposób optymalny wykorzystać zasoby takiego środowiska. Istnieją funkcjonalności pozwalające przenosić maszyny wirtualne między fizycznymi hostami bez konieczności ich zatrzymywania. Oprogramowania do wirtualizacji bardzo dobrze integrują się z systemami tworzenia kopii zapasowych. Administratorzy takich systemów mogą dowolnie żonglować zasobami sprzętowymi przypisując i odejmując pamięć operacyjną, moc obliczeniową procesora czy przestrzeń dyskową w zależności od potrzeb aplikacji pracującej na danej maszynie wirtualnej. Całość zarządzania odbywa się z jednego miejsca a przygotowane szablony maszyn wirtualnych pozwalają w kilka minut uruchomić nową maszynę, która posiada już system operacyjny ze wszystkim aktualizacjami.

Wirtualizacja to też doskonale rozwiązanie dla środowisk developerskich, gdzie w prosty sposób można przetestować czy implementowana funkcjonalność spełnia pożądane wymagania.

Ograniczenia utrudniające wirtualizację

Decydując się na wirtualizację swoich zasobów trzeba podejść do procesu jak do dobrze przemyślanego i opracowanego projektu, pamiętając, że nie wszystko nadaje się do wirtualizacji.

Podstawą środowiska wirtualnego jest wydajny podsystem dyskowy, na którym składowane są wirtualne systemy. Przez wydajny system dyskowy rozumiemy dużą ilość operacji zapisu i odczytu fragmentu danych z dysków, które można wykonać w ciągu jednej sekundy (IOPS). Serwery charakteryzujące się dużą ilością operacji zapis/odczyt nie są najlepszym kandydatem do wirtualizacji. Najczęściej na tych systemach składowane są transakcyjne bazy danych czy systemy bilingowe, które przy swojej pracy utylizują często zasoby dyskowe, ale też pamięć i procesor na poziomie zbliżonym do maksimum. Przy tego typu systemach rekomenduje się pozostanie przy fizycznym sprzęcie, głównie dlatego, by uniknąć maksymalnego wykorzystania zasobów sprzętowych przez jedną maszynę wirtualną, a co za tym idzie, zachwiania wydajności reszty środowiska.

Drugim ograniczeniem dla wirtualizacji są systemy/aplikacje korzystające ze sprzętowych kluczy licencyjnych czy przestarzałych technologicznie urządzeń sprzętowych (starej generacji modem dla serwera faksu), które nie są wspierane pod środowiskiem wirtualnym.

Rozpatrując wirtualizację, należy też zwrócić uwagę na politykę bezpieczeństwa firmy. Musimy zweryfikować wiedzę o ewentualnych ograniczeniach prawnych, które mogłyby wykluczać uruchomienie aplikacji w środowisku wirtualnym.

Istnieje spore grono osób, które za wszelką cenę będą starały się uciec od wirtualizacji. Powód jest dość trywialny - jeżeli konsolidacja to mniej fizycznych maszyn, jeżeli mniej fizycznych maszyn to, w odczuciu osób decyzyjnych, mniejsze zapotrzebowanie na personel, a tym samym redukcja zatrudnia.

Korzyści vs koszty inwestycji

Z założenia wirtualizacja niesie za sobą więcej korzyści niż kosztów. Oczywiście nowo budowane środowisko wirtualne wymaga nakładów finansowych na infrastrukturę sprzętową, oprogramowanie, zakup odpowiednich licencji oraz niezbędne wsparcie techniczne producenta oprogramowania. Jednak gdy cały proces poprzedzimy starannym oszacowaniem wymaganych zasobów sprzętowych gwarantujących wydajność i, co bardzo ważne, skalowalność środowiska, pozwoli to nam uniknąć nieplanowych kosztów. Budując rozwiązanie koniecznie należy uwzględnić aspekt bezpieczeństwa i stabilności pracy naszego środowiska. Należy sprawdzić czy istniejący system backupu w pełni integruje się z wybranym rozwiązaniem wirtualizacyjnym. W przeciwnym razie może zajść konieczność wymiany centralnego systemu backupu, wówczas należy ująć ten koszt jako element projektu i koniecznie zabudżetować.

Funkcjonalności jakie posiadają w swoim portfolio dostawcy rozwiązania są bardzo zróżnicowane i niekoniecznie wszystkie są wymagane w naszym środowisku. Niemożliwością

jest uzyskać komplet korzyści z wirtualizacji. Często jeden jasno sprecyzowany cel wirtualizacji przynosi korzyści zarówno biznesowe, jak i technologiczne.

Sam wybór odpowiedniego dostawcy rozwiązania jest kwestią indywidualną każdego przedsiębiorstwa. Nie ma możliwości wskazać, który dostawca jest najlepszy, i który w pełni sprosta oczekiwaniom klienta końcowego. Na rynku działa kilku dostawców rozwiązań do wirtualizacji. Kwadrat Gartnera jasno określa liderów w tym sektorze.

Zaprezentowane dane dotyczą jeszcze badań przeprowadzonych w 2013 roku. Można swobodnie zakładać, że ten trend odzwierciedli także rok 2014.

Konfrontacja liderów

Funkcjonalności jakie dostarczają liderzy są zbliżone do siebie. Wybór tego właściwego to temat na oddzielny materiał. Potrzeby biznesowe i technologia zdeterminują wybór odpowiedniego dostawcy.

Najpopularniejszą platformą wirualizacyjną na świecie jest VMware vSphere. Rozwiązanie tej firmy wybrało ponad 500 tyś. użytkowników, w tym wszystkie firmy z listy Fortune Global 100. Analitycy światowej firmy analityczno-doradcza Gartner podkreślają wysoki poziom satysfakcji klientów końcowych. VMware chwalony jest za innowacyjność czy samą strategię wirtualizacji, dobre recenzje zbiera także koncepcja prywatnych i hybrydowych usług przetwarzania w chmurze. Microsoft zdecydowanie skrócił dystans dzielący go do VMware, zwłaszcza po wypuszczeniu Windows Server 2012. Analitycy podkreślają szereg innowacji (skalowalność, ułatwienia w migracji maszyn wirtualnych, funkcjonalność Hyper-V Replica). Mimo że zdecydowana większość atutów nadal znajdują się po stronie VMware, argumentem przemawiającym za Microsoft wydaje się być konkurencyjna cena produktu wzbogacona przyjaznym i znanym wielu administratorom środowiskiem. Zarówno VMware i Microsoft oferują bardzo zbliżony poziom funkcjonalności pod kątem technicznym i pod kątem wsparcia produktu.
 
Na uwagę na pewno zasługuje funkcjonalność VMware definiowana jako Fault Tolerance. Usługa ta niweluje do zera przerwę w pracy maszyn wirtualnych w przypadku awarii fizycznego hosta. Posiada oczywiście pewne ograniczenia, np. maszyna wirtualna może posiadać tylko jeden wirtualny procesor oraz maksymalnie 64GB pamięci RAM, jednak mimo to, funkcjonalność znajduje swoje zastosowanie u wielu klientów. VMware w wersji vSphere 5.5 wprowadził funkcjonalność dynamicznego dodawania i usuwania urządzeń SSD do/z fizycznego hosta. Dodatkowo, posiada możliwości hot-add dla pamięci operacyjnej i procesora oraz hot-plug dla kart sieciowych oraz dysków, oczywiście przy założeniu, że system operacyjny gościa pozwala na takie operacje. Dla porównania Microsoft pozwala na usługę hot-add dla pamięci operacyjnej przy założeniu, że jest skonfigurowana jako „dynamic”. Obsługa urządzeń SSD nie jest do chwili obecnej przedstawiana w funkcjonalnościach producenta z Redmond.

Ktoś zapewne słuszne zwróci uwagę, że Microsoft gwarantuje prawidłowe funkcjonowanie klastra przy 64 węzłach, gdzie pracuje 8000 maszyn wirtualnych. Dla porównania VMware maksymalnie 32 fizyczne hosty w klastrze i „jedynie” 4000 wirtualnych maszyn, tylko jak często budujemy takie środowiska?

Wciąż jednak najczęściej o wyborze dostawcy decydują kwestie finansowe, często sympatia administratorów do konkretnego producenta, faktyczne potrzeby przedsiębiorstwa, ale też polityka firmy.

Źródło: infonet Projekt

Najnowsze wiadomości

Customer-specific AI: dlaczego w 2026 roku to ona przesądza o realnym wpływie AI na biznes
W 2026 roku sztuczna inteligencja przestaje być ciekawostką technologiczną, a zaczyna być rozliczana z realnego wpływu na biznes. Organizacje oczekują dziś decyzji, którym można zaufać, procesów działających przewidywalnie oraz doświadczeń klientów, które są spójne w skali. W tym kontekście coraz większe znaczenie zyskuje customer-specific AI - podejście, w którym inteligencja jest osadzona w danych, procesach i regułach konkretnej firmy, a nie oparta na generycznych, uśrednionych modelach.
PROMAG S.A. rozpoczyna wdrożenie systemu ERP IFS Cloud we współpracy z L-Systems
PROMAG S.A., lider w obszarze intralogistyki, rozpoczął wdrożenie systemu ERP IFS Cloud, który ma wesprzeć dalszy rozwój firmy oraz integrację kluczowych procesów biznesowych. Projekt realizowany jest we współpracy z firmą L-Systems i obejmuje m.in. obszary finansów, produkcji, logistyki, projektów oraz serwisu, odpowiadając na rosnącą skalę i złożoność realizowanych przedsięwzięć.
SkyAlyne stawia na IFS dla utrzymania floty RCAF
SkyAlyne, główny wykonawca programu Future Aircrew Training (FAcT), wybrał IFS Cloud for Aviation Maintenance jako cyfrową platformę do obsługi technicznej lotnictwa i zarządzania majątkiem. Wdrożenie ma zapewnić wgląd w czasie rzeczywistym w utrzymanie floty, zasoby i zgodność, ograniczyć przestoje oraz zwiększyć dostępność samolotów szkoleniowych RCAF w skali całego kraju. To ważny krok w modernizacji kanadyjskiego systemu szkolenia załóg lotniczych.
Wykorzystanie AI w firmach rośnie, ale wolniej, niż oczekiwano. Towarzyszy temu sporo rozczarowań
Wykorzystanie sztucznej inteligencji w firmach rośnie, ale tempo realnych wdrożeń pozostaje znacznie wolniejsze od wcześniejszych oczekiwań rynku. Dane pokazują, że z rozwiązań AI korzysta dziś wciąż niewiele przedsiębiorstw, a menedżerowie coraz częściej wskazują na bariery regulacyjne, koszty oraz brak powtarzalnych efektów biznesowych. W praktyce technologia jest testowana głównie w wybranych obszarach, a kluczowe decyzje nadal pozostają po stronie człowieka. Również w firmach, które wdrożyły AI, nierzadko towarzyszą temu rozczarowania.

Europejski przemysł cyfryzuje się zbyt wolno – ERP, chmura i AI stają się koniecznością
BPSCEuropejski przemysł średniej wielkości wie, że cyfryzacja jest koniecznością, ale wciąż nie nadąża za tempem zmian. Ponad 60% firm ocenia swoje postępy w transformacji cyfrowej jako zbyt wolne, mimo rosnącej presji konkurencyjnej, regulacyjnej i kosztowej. Raport Forterro pokazuje wyraźną lukę między świadomością potrzeby inwestycji w chmurę, ERP i AI a realną zdolnością do ich wdrożenia – ograniczaną przez braki kompetencyjne, budżety i gotowość organizacyjną.



Najnowsze artykuły

5 pułapek zarządzania zmianą, które mogą wykoleić transformację cyfrową i wdrożenie ERP
Dlaczego jedne wdrożenia ERP dowożą korzyści, a inne kończą się frustracją, obejściami w Excelu i spadkiem zaufania do systemu? Najczęściej decyduje nie technologia, lecz to, jak organizacja prowadzi zmianę: czy liderzy biorą odpowiedzialność za decyzje czy tempo jest dopasowane do zdolności absorpcji oraz czy ludzie dostają klarowność ról i realne kompetencje. Do tego dochodzi pytanie: co po go-live - stabilizacja czy chaos w firmie? Poniżej znajdziesz 5 pułapek, które najczęściej wykolejają transformację i praktyczne sposoby, jak im zapobiec.
SAP vs Oracle vs Microsoft: jak naprawdę wygląda chmura i sztuczna inteligencja w ERP
Wybór systemu ERP w erze chmury i sztucznej inteligencji to decyzja, która determinuje sposób działania organizacji na lata — a często także jej zdolność do skalowania, adaptacji i realnej transformacji cyfrowej. SAP, Oracle i Microsoft oferują dziś rozwiązania, które na pierwszy rzut oka wyglądają podobnie, lecz w praktyce reprezentują zupełnie odmienne podejścia do chmury, AI i zarządzania zmianą. Ten artykuł pokazuje, gdzie kończą się deklaracje, a zaczynają realne konsekwencje biznesowe wyboru ERP.
Transformacja cyfrowa z perspektywy CFO: 5 rzeczy, które przesądzają o sukcesie (albo o kosztownej porażce)
Transformacja cyfrowa w finansach często zaczyna się od pytania o ERP, ale w praktyce rzadko sprowadza się wyłącznie do wyboru systemu. Dla CFO kluczowe jest nie tylko „czy robimy pełną wymianę ERP”, lecz także jak policzyć ryzyko operacyjne po uruchomieniu, ocenić wpływ modelu chmurowego na koszty OPEX oraz utrzymać audytowalność i kontrolę wewnętrzną w nowym modelu działania firmy.
Agentic AI rewolucjonizuje HR i doświadczenia pracowników
Agentic AI zmienia HR: zamiast odpowiadać na pytania, samodzielnie realizuje zadania, koordynuje procesy i podejmuje decyzje zgodnie z polityką firmy. To przełom porównywalny z transformacją CRM – teraz dotyczy doświadczenia pracownika. Zyskują HR managerowie, CIO i CEO: mniej operacji, więcej strategii. W artykule wyjaśniamy, jak ta technologia redefiniuje rolę HR i daje organizacjom przewagę, której nie da się łatwo nadrobić.
Composable ERP: Przewodnik po nowoczesnej architekturze biznesowej
Czy Twój system ERP nadąża za tempem zmian rynkowych, czy stał się cyfrową kotwicą hamującą rozwój? W dobie nieciągłości biznesowej tradycyjne monolity ustępują miejsca elastycznej architekturze Composable ERP. To rewolucyjne podejście pozwala budować środowisko IT z niezależnych modułów (PBC) niczym z klocków, zapewniając zwinność nieosiągalną dla systemów z przeszłości. W tym raporcie odkryjesz, jak uniknąć pułapki długu technologicznego, poznasz strategie liderów rynku (od SAP po MACH Alliance) i wyciągniesz lekcje z kosztownych błędów gigantów takich jak Ulta Beauty. To Twój strategiczny przewodnik po transformacji z cyfrowego "betonu" w adaptacyjną "plastelinę".

Przeczytaj Również

Wykorzystanie AI w firmach rośnie, ale wolniej, niż oczekiwano. Towarzyszy temu sporo rozczarowań

Wykorzystanie sztucznej inteligencji w firmach rośnie, ale tempo realnych wdrożeń pozostaje znaczni… / Czytaj więcej

Vertiv Frontiers: 5 trendów, które przeprojektują centra danych pod „fabryki AI”

Centra danych wchodzą w erę „fabryk AI”, gdzie o przewadze nie decyduje już sama skala, lecz zdolno… / Czytaj więcej

Cyberbezpieczeństwo 2026. 6 trendów, które wymuszą nowe podejście do AI, danych i tożsamości

Rok 2026 zapowiada się jako moment przełomu w świecie cyfrowego bezpieczeństwa. W obliczu dynamiczn… / Czytaj więcej

Jurysdykcja danych w chmurze: dlaczego polskie firmy coraz częściej wybierają „gdzie leżą” ich system

Jurysdykcja danych przestała być detalem w umowach chmurowych – dziś decyduje o zgodności, bezpiecz… / Czytaj więcej

Tylko 7% firm w Europie wykorzystuje w pełni potencjał AI

72% firm w regionie EMEA uznaje rozwój narzędzi bazujących na sztucznej inteligencji za priorytet s… / Czytaj więcej

Chmura publiczna w Unii Europejskiej – między innowacją a odpowiedzialnością za dane

Transformacja cyfrowa w Europie coraz mocniej opiera się na chmurze publicznej, która stała się fun… / Czytaj więcej