Bezpieczeństwo w erze wielkich zbiorów danych – know-how
Katgoria: IT Solutions / Utworzono: 05 marzec 2015
Bezpieczeństwo w erze wielkich zbiorów danych – know-how
Gorączka złota” w zakresie gromadzenia i analizowania wielkich zbiorów danych (ang. Big Data) trwa, napędzana przez nabierający znaczenia trend Internetu Rzeczy (ang. Internet of Things). Sytuacja ta stwarza coraz większe problemy w zakresie bezpieczeństwa sieci firmowych i centrów przetwarzania danych. Istnieją trzy kluczowe obszary, które można zoptymalizować, aby lepiej wykorzystać ich potencjał.
Pierwszym z nich jest agregacja. Coraz częściej zamiast przetwarzać surowe dane i ograniczać ich ilość u źródła do poziomu ułatwiającego zarządzanie, są one przesyłane do centralnego repozytorium i przechowywane w celu ich analizowania pod różnym kątem w dłuższym okresie. W dzisiejszych czasach przedsiębiorstwa każdego dnia przesyłają wiele terabajtów danych do odległych lokalizacji. Już sama ilość danych wymusza modernizację sieci szkieletowych i centrów przetwarzania danych, na przykład przez wdrażanie przełączników 100 GbE w celu zapewnienia obsługi przesyłania danych z prędkością 10 Gb/s lub większą.
Ponadto taka sytuacja stwarza problemy w zakresie ochrony brzegów sieci (np. firewalle), a wiele rozwiązań dostępnych dziś na rynku nie jest w stanie obsłużyć tak wielkiej liczby sesji i napływu danych. Przykładowo firewall wyposażony w porty 10 GbE lub zapewniający łączną przepustowość rzędu 40 Gb/s może w rzeczywistości nie posiadać wewnętrznych ścieżek przetwarzania pozwalających obsłużyć pojedynczy przepływ danych z prędkością 10 Gb/s. Przeciążenie sieci LAN w wyniku normalnej działalności przedsiębiorstwa może spowodować jeszcze większe nasycenie procesora urządzenia sieciowego lub zasobów pamięci, a w efekcie zatrzymać lub nawet odrzucić duże przepływy danych.
Drugim obszarem jest przetwarzanie. Przepływy wielkich zbiorów danych nie są symetryczne. Surowe dane przychodzące niekoniecznie są identyczne pod względem formatu i ilości, co dane wychodzące. Dane przechowywane w macierzach pamięci masowej są na ogół analizowane przez grupę serwerów pośrednich, następnie ich ilość jest zmniejszana i udostępniana (najczęściej przez systemy frontowe serwerów WWW) w formie ograniczonego zestawu informacji przed opuszczeniem centrum przetwarzania danych. Oznacza to większe zapotrzebowanie na przepustowość oraz coraz większy ruch poprzeczny (ze wschodu na zachód – ang. east-west) w ramach centrum przetwarzania danych, zamiast w kierunku Internetu lub innych miejsc (z północy na południe – ang. north-south). Z wielu opracowań branżowych wynika, że ruch ze wschodu na zachód stanowi obecnie nawet 70% ruchu generowanego przez centrum przetwarzania danych. Przewiduje się, że trend ten będzie przybierać na sile ze względu na rosnące znaczenie analizy wielkich zbiorów danych.
Taki rodzaj ruchu należy dzielić na segmenty i kontrolować nie tylko w celu blokowania poprzecznego ruchu zagrożeń typu APT i ataków mających swoje źródło wewnątrz centrum, lecz także w celu zabezpieczenia danych, których wyciek lub ujawnienie może spowodować problemy. Architektury bezpieczeństwa sieciowego muszą ewoluować z architektur zorientowanych na bezpieczeństwo brzegów sieci lub bram w kierunku wielowarstwowych hybrydowych architektur, w których większa część ruchu ze wschodu na zachód jest wirtualizowana i wyodrębniana przez zastosowanie wirtualizacji serwerów lub sieci i przetwarzania w chmurze.
Trzecim obszarem jest dostęp. W ramach analizy dane są archiwizowane przez długi okres. Kto może uzyskiwać dostęp do konkretnych danych i w jakim celu? Często mamy do czynienia nie z pojedynczym zestawem danych, lecz z wieloma repozytoriami, które można łączyć i analizować jako całość. Każdy zestaw danych może zawierać dane poufne lub objęte szczególną ochroną, które mogą podlegać określonym regulacjom prawnym lub kontrolom wewnętrznym. Ponadto dostęp do danego zestawu ma często więcej niż jedna grupa analityków czy badaczy, a z czasem uzyskują go również inne osoby. Dobrym przykładem udanego zarządzania dostępem jest pewna duża firma farmaceutyczna, której wielkie zbiory danych zostały udostępnione nie tylko pracownikom wewnętrznym, lecz także wykonawcom, stażystom i naukowcom. Dla każdej grupy utworzono oddzielne testowe środowisko analityczne oraz nadano im uprawnienia dostępu do określonych zestawów danych, które grupy te mogły analizować i łączyć.
W takim kontekście działy informatyczne muszą w zasadniczy sposób zmienić swoją strategię bezpieczeństwa sieci, zamiast stopniowo dostosowywać się do zmieniających się potrzeb w zakresie bezpieczeństwa centrum przetwarzania danych. W wielu przypadkach infrastruktura centrum przetwarzania danych jest konsolidowana i przekształcana nie tylko z uwagi na rosnące znaczenie analizy wielkich zbiorów danych, lecz także trendy, takie jak przetwarzanie w chmurze i oprogramowanie jako usługa (SaaS). Na potrzeby tej transformacji działy informatyki powinny rozważyć wdrożenie architektury cechującej się:
Robert Dąbrowski, starszy inżynier systemowy, FORTINET
Ponadto taka sytuacja stwarza problemy w zakresie ochrony brzegów sieci (np. firewalle), a wiele rozwiązań dostępnych dziś na rynku nie jest w stanie obsłużyć tak wielkiej liczby sesji i napływu danych. Przykładowo firewall wyposażony w porty 10 GbE lub zapewniający łączną przepustowość rzędu 40 Gb/s może w rzeczywistości nie posiadać wewnętrznych ścieżek przetwarzania pozwalających obsłużyć pojedynczy przepływ danych z prędkością 10 Gb/s. Przeciążenie sieci LAN w wyniku normalnej działalności przedsiębiorstwa może spowodować jeszcze większe nasycenie procesora urządzenia sieciowego lub zasobów pamięci, a w efekcie zatrzymać lub nawet odrzucić duże przepływy danych.
Drugim obszarem jest przetwarzanie. Przepływy wielkich zbiorów danych nie są symetryczne. Surowe dane przychodzące niekoniecznie są identyczne pod względem formatu i ilości, co dane wychodzące. Dane przechowywane w macierzach pamięci masowej są na ogół analizowane przez grupę serwerów pośrednich, następnie ich ilość jest zmniejszana i udostępniana (najczęściej przez systemy frontowe serwerów WWW) w formie ograniczonego zestawu informacji przed opuszczeniem centrum przetwarzania danych. Oznacza to większe zapotrzebowanie na przepustowość oraz coraz większy ruch poprzeczny (ze wschodu na zachód – ang. east-west) w ramach centrum przetwarzania danych, zamiast w kierunku Internetu lub innych miejsc (z północy na południe – ang. north-south). Z wielu opracowań branżowych wynika, że ruch ze wschodu na zachód stanowi obecnie nawet 70% ruchu generowanego przez centrum przetwarzania danych. Przewiduje się, że trend ten będzie przybierać na sile ze względu na rosnące znaczenie analizy wielkich zbiorów danych.
Taki rodzaj ruchu należy dzielić na segmenty i kontrolować nie tylko w celu blokowania poprzecznego ruchu zagrożeń typu APT i ataków mających swoje źródło wewnątrz centrum, lecz także w celu zabezpieczenia danych, których wyciek lub ujawnienie może spowodować problemy. Architektury bezpieczeństwa sieciowego muszą ewoluować z architektur zorientowanych na bezpieczeństwo brzegów sieci lub bram w kierunku wielowarstwowych hybrydowych architektur, w których większa część ruchu ze wschodu na zachód jest wirtualizowana i wyodrębniana przez zastosowanie wirtualizacji serwerów lub sieci i przetwarzania w chmurze.
Trzecim obszarem jest dostęp. W ramach analizy dane są archiwizowane przez długi okres. Kto może uzyskiwać dostęp do konkretnych danych i w jakim celu? Często mamy do czynienia nie z pojedynczym zestawem danych, lecz z wieloma repozytoriami, które można łączyć i analizować jako całość. Każdy zestaw danych może zawierać dane poufne lub objęte szczególną ochroną, które mogą podlegać określonym regulacjom prawnym lub kontrolom wewnętrznym. Ponadto dostęp do danego zestawu ma często więcej niż jedna grupa analityków czy badaczy, a z czasem uzyskują go również inne osoby. Dobrym przykładem udanego zarządzania dostępem jest pewna duża firma farmaceutyczna, której wielkie zbiory danych zostały udostępnione nie tylko pracownikom wewnętrznym, lecz także wykonawcom, stażystom i naukowcom. Dla każdej grupy utworzono oddzielne testowe środowisko analityczne oraz nadano im uprawnienia dostępu do określonych zestawów danych, które grupy te mogły analizować i łączyć.
W takim kontekście działy informatyczne muszą w zasadniczy sposób zmienić swoją strategię bezpieczeństwa sieci, zamiast stopniowo dostosowywać się do zmieniających się potrzeb w zakresie bezpieczeństwa centrum przetwarzania danych. W wielu przypadkach infrastruktura centrum przetwarzania danych jest konsolidowana i przekształcana nie tylko z uwagi na rosnące znaczenie analizy wielkich zbiorów danych, lecz także trendy, takie jak przetwarzanie w chmurze i oprogramowanie jako usługa (SaaS). Na potrzeby tej transformacji działy informatyki powinny rozważyć wdrożenie architektury cechującej się:
- wysoką wydajnością – możliwość obsługi większych zbiorów danych, większa przepustowość sieci, szybkie porty (np. 40 Gb/100 Gb), duża gęstość portów, jak również skalowalność i elastyczność w celu zapewnienia obsługi coraz większych zbiorów danych;
- bezpieczeństwem – zwiększenie bezpieczeństwa brzegów sieci dzięki lepszej segmentacji wewnętrznej w celu zabezpieczenia ruchu danych ze wschodu na zachód i monitorowania zagrożeń typu APT i zagrożeń wewnętrznych;
- konsolidacją – integracja wielu funkcji bezpieczeństwa, od podstawowych, takich jak firewall/sieć VPN, ochrona przed szkodliwym oprogramowaniem i system zapobiegania włamaniom, po zaawansowane, takie jak kontrola dostępu i silne uwierzytelnianie.
Robert Dąbrowski, starszy inżynier systemowy, FORTINET
Najnowsze wiadomości
Customer-specific AI: dlaczego w 2026 roku to ona przesądza o realnym wpływie AI na biznes
W 2026 roku sztuczna inteligencja przestaje być ciekawostką technologiczną, a zaczyna być rozliczana z realnego wpływu na biznes. Organizacje oczekują dziś decyzji, którym można zaufać, procesów działających przewidywalnie oraz doświadczeń klientów, które są spójne w skali. W tym kontekście coraz większe znaczenie zyskuje customer-specific AI - podejście, w którym inteligencja jest osadzona w danych, procesach i regułach konkretnej firmy, a nie oparta na generycznych, uśrednionych modelach.
PROMAG S.A. rozpoczyna wdrożenie systemu ERP IFS Cloud we współpracy z L-Systems
PROMAG S.A., lider w obszarze intralogistyki, rozpoczął wdrożenie systemu ERP IFS Cloud, który ma wesprzeć dalszy rozwój firmy oraz integrację kluczowych procesów biznesowych. Projekt realizowany jest we współpracy z firmą L-Systems i obejmuje m.in. obszary finansów, produkcji, logistyki, projektów oraz serwisu, odpowiadając na rosnącą skalę i złożoność realizowanych przedsięwzięć.
SkyAlyne stawia na IFS dla utrzymania floty RCAF
SkyAlyne, główny wykonawca programu Future Aircrew Training (FAcT), wybrał IFS Cloud for Aviation Maintenance jako cyfrową platformę do obsługi technicznej lotnictwa i zarządzania majątkiem. Wdrożenie ma zapewnić wgląd w czasie rzeczywistym w utrzymanie floty, zasoby i zgodność, ograniczyć przestoje oraz zwiększyć dostępność samolotów szkoleniowych RCAF w skali całego kraju. To ważny krok w modernizacji kanadyjskiego systemu szkolenia załóg lotniczych.
Wykorzystanie AI w firmach rośnie, ale wolniej, niż oczekiwano. Towarzyszy temu sporo rozczarowań
Wykorzystanie sztucznej inteligencji w firmach rośnie, ale tempo realnych wdrożeń pozostaje znacznie wolniejsze od wcześniejszych oczekiwań rynku. Dane pokazują, że z rozwiązań AI korzysta dziś wciąż niewiele przedsiębiorstw, a menedżerowie coraz częściej wskazują na bariery regulacyjne, koszty oraz brak powtarzalnych efektów biznesowych. W praktyce technologia jest testowana głównie w wybranych obszarach, a kluczowe decyzje nadal pozostają po stronie człowieka. Również w firmach, które wdrożyły AI, nierzadko towarzyszą temu rozczarowania.
Europejski przemysł cyfryzuje się zbyt wolno – ERP, chmura i AI stają się koniecznością
Europejski przemysł średniej wielkości wie, że cyfryzacja jest koniecznością, ale wciąż nie nadąża za tempem zmian. Ponad 60% firm ocenia swoje postępy w transformacji cyfrowej jako zbyt wolne, mimo rosnącej presji konkurencyjnej, regulacyjnej i kosztowej. Raport Forterro pokazuje wyraźną lukę między świadomością potrzeby inwestycji w chmurę, ERP i AI a realną zdolnością do ich wdrożenia – ograniczaną przez braki kompetencyjne, budżety i gotowość organizacyjną.
Najnowsze artykuły
5 pułapek zarządzania zmianą, które mogą wykoleić transformację cyfrową i wdrożenie ERP
Dlaczego jedne wdrożenia ERP dowożą korzyści, a inne kończą się frustracją, obejściami w Excelu i spadkiem zaufania do systemu? Najczęściej decyduje nie technologia, lecz to, jak organizacja prowadzi zmianę: czy liderzy biorą odpowiedzialność za decyzje czy tempo jest dopasowane do zdolności absorpcji oraz czy ludzie dostają klarowność ról i realne kompetencje. Do tego dochodzi pytanie: co po go-live - stabilizacja czy chaos w firmie? Poniżej znajdziesz 5 pułapek, które najczęściej wykolejają transformację i praktyczne sposoby, jak im zapobiec.
SAP vs Oracle vs Microsoft: jak naprawdę wygląda chmura i sztuczna inteligencja w ERP
Wybór systemu ERP w erze chmury i sztucznej inteligencji to decyzja, która determinuje sposób działania organizacji na lata — a często także jej zdolność do skalowania, adaptacji i realnej transformacji cyfrowej. SAP, Oracle i Microsoft oferują dziś rozwiązania, które na pierwszy rzut oka wyglądają podobnie, lecz w praktyce reprezentują zupełnie odmienne podejścia do chmury, AI i zarządzania zmianą. Ten artykuł pokazuje, gdzie kończą się deklaracje, a zaczynają realne konsekwencje biznesowe wyboru ERP.
Transformacja cyfrowa z perspektywy CFO: 5 rzeczy, które przesądzają o sukcesie (albo o kosztownej porażce)
Transformacja cyfrowa w finansach często zaczyna się od pytania o ERP, ale w praktyce rzadko sprowadza się wyłącznie do wyboru systemu. Dla CFO kluczowe jest nie tylko „czy robimy pełną wymianę ERP”, lecz także jak policzyć ryzyko operacyjne po uruchomieniu, ocenić wpływ modelu chmurowego na koszty OPEX oraz utrzymać audytowalność i kontrolę wewnętrzną w nowym modelu działania firmy.
Agentic AI rewolucjonizuje HR i doświadczenia pracowników
Agentic AI zmienia HR: zamiast odpowiadać na pytania, samodzielnie realizuje zadania, koordynuje procesy i podejmuje decyzje zgodnie z polityką firmy. To przełom porównywalny z transformacją CRM – teraz dotyczy doświadczenia pracownika. Zyskują HR managerowie, CIO i CEO: mniej operacji, więcej strategii. W artykule wyjaśniamy, jak ta technologia redefiniuje rolę HR i daje organizacjom przewagę, której nie da się łatwo nadrobić.
Composable ERP: Przewodnik po nowoczesnej architekturze biznesowej
Czy Twój system ERP nadąża za tempem zmian rynkowych, czy stał się cyfrową kotwicą hamującą rozwój? W dobie nieciągłości biznesowej tradycyjne monolity ustępują miejsca elastycznej architekturze Composable ERP. To rewolucyjne podejście pozwala budować środowisko IT z niezależnych modułów (PBC) niczym z klocków, zapewniając zwinność nieosiągalną dla systemów z przeszłości. W tym raporcie odkryjesz, jak uniknąć pułapki długu technologicznego, poznasz strategie liderów rynku (od SAP po MACH Alliance) i wyciągniesz lekcje z kosztownych błędów gigantów takich jak Ulta Beauty. To Twój strategiczny przewodnik po transformacji z cyfrowego "betonu" w adaptacyjną "plastelinę".
Oferty Pracy
-
Młodszy konsultant programista Microsoft Dynamics 365 Business Central
-
Konsultant programista Microsoft Dynamics 365 Business Central
-
Konsultant Microsoft Dynamics 365
-
Konsultant Wdrożeniowy Symfonia – księgowość
-
Microsoft Fabric Engineer (MFE)
-
Data/Business Analyst (PBI/Fabric)
-
CRM consultant
-
Starszy architekt systemów rozproszonych
-
Inżynier Zastosowań AI
Przeczytaj Również
Wykorzystanie AI w firmach rośnie, ale wolniej, niż oczekiwano. Towarzyszy temu sporo rozczarowań
Wykorzystanie sztucznej inteligencji w firmach rośnie, ale tempo realnych wdrożeń pozostaje znaczni… / Czytaj więcej
Vertiv Frontiers: 5 trendów, które przeprojektują centra danych pod „fabryki AI”
Centra danych wchodzą w erę „fabryk AI”, gdzie o przewadze nie decyduje już sama skala, lecz zdolno… / Czytaj więcej
Cyberbezpieczeństwo 2026. 6 trendów, które wymuszą nowe podejście do AI, danych i tożsamości
Rok 2026 zapowiada się jako moment przełomu w świecie cyfrowego bezpieczeństwa. W obliczu dynamiczn… / Czytaj więcej
Jurysdykcja danych w chmurze: dlaczego polskie firmy coraz częściej wybierają „gdzie leżą” ich system
Jurysdykcja danych przestała być detalem w umowach chmurowych – dziś decyduje o zgodności, bezpiecz… / Czytaj więcej
Tylko 7% firm w Europie wykorzystuje w pełni potencjał AI
72% firm w regionie EMEA uznaje rozwój narzędzi bazujących na sztucznej inteligencji za priorytet s… / Czytaj więcej
Chmura publiczna w Unii Europejskiej – między innowacją a odpowiedzialnością za dane
Transformacja cyfrowa w Europie coraz mocniej opiera się na chmurze publicznej, która stała się fun… / Czytaj więcej
