Wzmocnienie łańcucha dostaw oprogramowania i zarządzania w celu poprawy cyberbezpieczeństwa systemów AI
Katgoria: IT Solutions / Utworzono: 21 październik 2024
W miarę jak rośnie liczba rozwiązań AI w firmach, zwiększa się także powierzchnia ataku AI. Cyberprzestępcy także zyskują dostęp do coraz bardziej zaawansowanych narzędzi opartych na sztucznej inteligencji. Rządy, regionalni legislatorzy oraz sektor prywatny traktują te zagrożenia bardzo poważnie.
Kilka miesięcy temu, na Aspen Security Forum, grupa wiodących firm technologicznych uruchomiła Koalicję Na Rzecz Bezpiecznej Sztucznej Inteligencji (CoSAI). Inicjatywa będzie się koncentrować na kluczowych kwestiach związanych z bezpieczeństwem łańcucha dostaw oprogramowania dla systemów AI, przygotowaniem obrońców na zmieniający się krajobraz zagrożeń oraz zarządzaniem ryzykiem AI. Bezpieczeństwo AI jest teraz ważniejsze niż kiedykolwiek, ponieważ rośnie liczba hakerów wykorzystujących AI do udoskonalania swoich phishingowych e-maili oraz ataków z wykorzystaniem deepfake.
Na konferencji Black Hat kilka lat temu, singapurska Agencja Technologii Rządowych (GovTech) przedstawiła wyniki eksperymentu, w którym zespół ds. bezpieczeństwa przeprowadził symulowany atak phishingowy, rozsyłając maile do wewnętrznych użytkowników. Okazało się, że znacznie więcej osób kliknęło w linki umieszczone w mailach phishingowych wygenerowanych przez sztuczną inteligencję niż w tych, które napisał człowiek.
Na początku tego roku, pracownik działu finansowego międzynarodowej firmy padł ofiarą technologii deepfake, którą cyberprzestępcy wykorzystali, aby podczas wideokonferencji podszyć się pod dyrektora finansowego. W efekcie wprowadzony w błąd pracownik przelał oszustom 25 milionów dolarów.
Dlatego zaistniała potrzeba utworzenia CoSAI. Jak wspomniano wcześniej, jednym z kluczowych obszarów, na których skupia się koalicja, jest bezpieczeństwo łańcucha dostaw oprogramowania dla systemów AI. Obejmuje on cały cykl życia systemów sztucznej inteligencji, od zbierania danych, przez szkolenie modeli, aż po ich wdrożenie i utrzymanie. Ze względu na złożoność i wzajemne powiązania tego ekosystemu, podatności na cyberataki na którymkolwiek etapie mogą wpłynąć na cały łańcuch.
Systemy AI często funkcjonują dzięki dostarczanym przez zewnętrznych dostawców bibliotekom, frameworkom i komponentom. Takie rozwiązania choć przyspieszają rozwój, mogą prowadzić do powstawania potencjalnych luk w zabezpieczeniach. Z tego powodu kluczowe jest regularne korzystanie z automatycznych narzędzi w celu sprawdzania i rozwiązywania problemów związanych z bezpieczeństwem tych rozwiązań.
Dodatkowo, powszechna dostępność otwartych modeli językowych (LLM) wymaga solidnej weryfikacji źródła ich pochodzenia, jak również integralności modeli oraz zbiorów danych. Należy także korzystać z narzędzi do automatycznego skanowania tych modeli i zbiorów danych pod kątem podatności i obecności złośliwego oprogramowania. Co ważne, LLM-y na urządzeniach mogą zapewniać większe bezpieczeństwo danych, ponieważ obliczenia wykonywane są w pamięci systemu, bez potrzeby łączenia z chmurą.
W przypadku oprogramowania zamkniętego (proprietary software), jego zastrzeżony i niejawny charakter może zapewnić określony poziom ochrony, co utrudnia cyberprzestępcom wykorzystywanie luk. Z drugiej strony, oznacza to, że identyfikacja i naprawa problemów bezpieczeństwa może trwać dłużej.
W przypadku oprogramowania otwartego (open-source software) zyskujemy na współpracy społeczności, ponieważ wiele osób mających wgląd do kodu przyczynia się do szybkiego wykrywania i naprawiania luk w zabezpieczeniach. Niemniej jednak, publiczne ujawnienie kodu może także zdemaskować potencjalne słabe punkty.
Skupienie się CoSAI na zarządzaniu bezpieczeństwem AI jest również bardzo na czasie. Na przykład, w tym roku, Narodowy Instytut Standaryzacji i Technologii (NIST) opublikował dokument opisujący cztery rodzaje ataków na uczenie maszynowe. Obejmują one infekowanie danych, nadużycia danych, ataki na prywatność oraz ataki polegające na ominięciu mechanizmów obronnych systemów predykcyjnych i generatywnych AI.
AI Act wydany przez Unię Europejską także podkreśla potrzebę stosowania środków bezpieczeństwa cybernetycznego, które umożliwiają zapobieganie, wykrywanie, reagowanie i przeciwdziałanie atakom manipulującym zestawem danych szkoleniowych (zatruwanie danych) lub komponentami używanymi do szkolenia (zatruwanie modeli), a także projektowanymi wejściami, które powodują błąd modelu AI (przykłady adwersaryjne lub ominięcie modelu) oraz atakami na poufność czy usterki modelu.
Firmy mogą dzielić się swoim doświadczeniem, uczestnicząc w procesie regulacyjnym oraz prowadząc badania we współpracy z klientami, partnerami, stowarzyszeniami branżowymi oraz instytucjami badawczymi. Wspólne zaangażowanie w innowacje wymaga, aby sztuczna inteligencja była bezpieczna.
Zarządzanie bezpieczeństwem sztucznej inteligencji wymaga wyspecjalizowanych zasobów, aby sprostać wyzwaniom i zagrożeniom związanym z tą technologią. Opracowanie standardowej biblioteki do mapowania ryzyka i kontroli pomaga w osiągnięciu spójnych praktyk w zakresie bezpieczeństwa sztucznej inteligencji w całej branży.
Dodatkowo, lista kontrolna oraz standaryzowany mechanizm oceny dojrzałości bezpieczeństwa AI pozwoliłyby organizacjom samodzielnie przeprowadzić ewaluację własnych środków ochrony. W efekcie firmy mogą zapewnić klientów, że ich produkty bazujące na AI są bezpieczne. Podejście to jest zbieżne z praktykami bezpiecznego cyklu życia oprogramowania (SDLC) stosowanymi już przez organizacje w ramach ocen modelu dojrzałości oprogramowania (SAMM).
Produkty i rozwiązania mogą być wtedy wykorzystywane w aplikacjach, które pomagają organizacjom spełniać wymogi HIPAA, PCI-DSS, RODO, walidację FIPS-140 oraz wspólne kryteria dla produktów. Organizacje powinny korzystać z technologii dostarczanych przez partnerów, takich jak zestawy narzędzi do tworzenia oprogramowania (SDK), interfejsy API oraz narzędzia dla deweloperów. Dzięki takiemu podejściu będą szybko powstawać bezpieczne i skalowalne usługi cyfrowe.
Firmy technologiczne mogą zobowiązać się do tworzenia bezpiecznych rozwiązań AI, które poprawiają produktywność pracowników oraz wdrażanie na urządzeniach brzegowych, poprzez integrację wielopoziomowych zabezpieczeń oraz skupienie się na łatwym zwiększaniu bezpieczeństwa bez uszczerbku dla wydajności.
Podobnie jak w przypadku inicjatyw związanych z cyberbezpieczeństwem i innych działań wymagających koordynacji w całej firmie, organizacje powinny stale rozwijać procesy, zasady, narzędzia i szkolenia dotyczące AI, zapewniając przy tym spójność i zgodność poprzez wewnętrzny model zarządzania typu hub-and-spoke.
Srikrishna Shankavaram, Główny Architekt ds. Cyberbezpieczeństwa, CTO Office, Zebra Technologies
Na konferencji Black Hat kilka lat temu, singapurska Agencja Technologii Rządowych (GovTech) przedstawiła wyniki eksperymentu, w którym zespół ds. bezpieczeństwa przeprowadził symulowany atak phishingowy, rozsyłając maile do wewnętrznych użytkowników. Okazało się, że znacznie więcej osób kliknęło w linki umieszczone w mailach phishingowych wygenerowanych przez sztuczną inteligencję niż w tych, które napisał człowiek.
Na początku tego roku, pracownik działu finansowego międzynarodowej firmy padł ofiarą technologii deepfake, którą cyberprzestępcy wykorzystali, aby podczas wideokonferencji podszyć się pod dyrektora finansowego. W efekcie wprowadzony w błąd pracownik przelał oszustom 25 milionów dolarów.
Dlatego zaistniała potrzeba utworzenia CoSAI. Jak wspomniano wcześniej, jednym z kluczowych obszarów, na których skupia się koalicja, jest bezpieczeństwo łańcucha dostaw oprogramowania dla systemów AI. Obejmuje on cały cykl życia systemów sztucznej inteligencji, od zbierania danych, przez szkolenie modeli, aż po ich wdrożenie i utrzymanie. Ze względu na złożoność i wzajemne powiązania tego ekosystemu, podatności na cyberataki na którymkolwiek etapie mogą wpłynąć na cały łańcuch.
Systemy AI często funkcjonują dzięki dostarczanym przez zewnętrznych dostawców bibliotekom, frameworkom i komponentom. Takie rozwiązania choć przyspieszają rozwój, mogą prowadzić do powstawania potencjalnych luk w zabezpieczeniach. Z tego powodu kluczowe jest regularne korzystanie z automatycznych narzędzi w celu sprawdzania i rozwiązywania problemów związanych z bezpieczeństwem tych rozwiązań.
Dodatkowo, powszechna dostępność otwartych modeli językowych (LLM) wymaga solidnej weryfikacji źródła ich pochodzenia, jak również integralności modeli oraz zbiorów danych. Należy także korzystać z narzędzi do automatycznego skanowania tych modeli i zbiorów danych pod kątem podatności i obecności złośliwego oprogramowania. Co ważne, LLM-y na urządzeniach mogą zapewniać większe bezpieczeństwo danych, ponieważ obliczenia wykonywane są w pamięci systemu, bez potrzeby łączenia z chmurą.
W przypadku oprogramowania zamkniętego (proprietary software), jego zastrzeżony i niejawny charakter może zapewnić określony poziom ochrony, co utrudnia cyberprzestępcom wykorzystywanie luk. Z drugiej strony, oznacza to, że identyfikacja i naprawa problemów bezpieczeństwa może trwać dłużej.
W przypadku oprogramowania otwartego (open-source software) zyskujemy na współpracy społeczności, ponieważ wiele osób mających wgląd do kodu przyczynia się do szybkiego wykrywania i naprawiania luk w zabezpieczeniach. Niemniej jednak, publiczne ujawnienie kodu może także zdemaskować potencjalne słabe punkty.
Skupienie się CoSAI na zarządzaniu bezpieczeństwem AI jest również bardzo na czasie. Na przykład, w tym roku, Narodowy Instytut Standaryzacji i Technologii (NIST) opublikował dokument opisujący cztery rodzaje ataków na uczenie maszynowe. Obejmują one infekowanie danych, nadużycia danych, ataki na prywatność oraz ataki polegające na ominięciu mechanizmów obronnych systemów predykcyjnych i generatywnych AI.
AI Act wydany przez Unię Europejską także podkreśla potrzebę stosowania środków bezpieczeństwa cybernetycznego, które umożliwiają zapobieganie, wykrywanie, reagowanie i przeciwdziałanie atakom manipulującym zestawem danych szkoleniowych (zatruwanie danych) lub komponentami używanymi do szkolenia (zatruwanie modeli), a także projektowanymi wejściami, które powodują błąd modelu AI (przykłady adwersaryjne lub ominięcie modelu) oraz atakami na poufność czy usterki modelu.
Firmy mogą dzielić się swoim doświadczeniem, uczestnicząc w procesie regulacyjnym oraz prowadząc badania we współpracy z klientami, partnerami, stowarzyszeniami branżowymi oraz instytucjami badawczymi. Wspólne zaangażowanie w innowacje wymaga, aby sztuczna inteligencja była bezpieczna.
Zarządzanie bezpieczeństwem sztucznej inteligencji wymaga wyspecjalizowanych zasobów, aby sprostać wyzwaniom i zagrożeniom związanym z tą technologią. Opracowanie standardowej biblioteki do mapowania ryzyka i kontroli pomaga w osiągnięciu spójnych praktyk w zakresie bezpieczeństwa sztucznej inteligencji w całej branży.
Dodatkowo, lista kontrolna oraz standaryzowany mechanizm oceny dojrzałości bezpieczeństwa AI pozwoliłyby organizacjom samodzielnie przeprowadzić ewaluację własnych środków ochrony. W efekcie firmy mogą zapewnić klientów, że ich produkty bazujące na AI są bezpieczne. Podejście to jest zbieżne z praktykami bezpiecznego cyklu życia oprogramowania (SDLC) stosowanymi już przez organizacje w ramach ocen modelu dojrzałości oprogramowania (SAMM).
Produkty i rozwiązania mogą być wtedy wykorzystywane w aplikacjach, które pomagają organizacjom spełniać wymogi HIPAA, PCI-DSS, RODO, walidację FIPS-140 oraz wspólne kryteria dla produktów. Organizacje powinny korzystać z technologii dostarczanych przez partnerów, takich jak zestawy narzędzi do tworzenia oprogramowania (SDK), interfejsy API oraz narzędzia dla deweloperów. Dzięki takiemu podejściu będą szybko powstawać bezpieczne i skalowalne usługi cyfrowe.
Firmy technologiczne mogą zobowiązać się do tworzenia bezpiecznych rozwiązań AI, które poprawiają produktywność pracowników oraz wdrażanie na urządzeniach brzegowych, poprzez integrację wielopoziomowych zabezpieczeń oraz skupienie się na łatwym zwiększaniu bezpieczeństwa bez uszczerbku dla wydajności.
Podobnie jak w przypadku inicjatyw związanych z cyberbezpieczeństwem i innych działań wymagających koordynacji w całej firmie, organizacje powinny stale rozwijać procesy, zasady, narzędzia i szkolenia dotyczące AI, zapewniając przy tym spójność i zgodność poprzez wewnętrzny model zarządzania typu hub-and-spoke.
Srikrishna Shankavaram, Główny Architekt ds. Cyberbezpieczeństwa, CTO Office, Zebra Technologies
Najnowsze wiadomości
Customer-specific AI: dlaczego w 2026 roku to ona przesądza o realnym wpływie AI na biznes
W 2026 roku sztuczna inteligencja przestaje być ciekawostką technologiczną, a zaczyna być rozliczana z realnego wpływu na biznes. Organizacje oczekują dziś decyzji, którym można zaufać, procesów działających przewidywalnie oraz doświadczeń klientów, które są spójne w skali. W tym kontekście coraz większe znaczenie zyskuje customer-specific AI - podejście, w którym inteligencja jest osadzona w danych, procesach i regułach konkretnej firmy, a nie oparta na generycznych, uśrednionych modelach.
PROMAG S.A. rozpoczyna wdrożenie systemu ERP IFS Cloud we współpracy z L-Systems
PROMAG S.A., lider w obszarze intralogistyki, rozpoczął wdrożenie systemu ERP IFS Cloud, który ma wesprzeć dalszy rozwój firmy oraz integrację kluczowych procesów biznesowych. Projekt realizowany jest we współpracy z firmą L-Systems i obejmuje m.in. obszary finansów, produkcji, logistyki, projektów oraz serwisu, odpowiadając na rosnącą skalę i złożoność realizowanych przedsięwzięć.
SkyAlyne stawia na IFS dla utrzymania floty RCAF
SkyAlyne, główny wykonawca programu Future Aircrew Training (FAcT), wybrał IFS Cloud for Aviation Maintenance jako cyfrową platformę do obsługi technicznej lotnictwa i zarządzania majątkiem. Wdrożenie ma zapewnić wgląd w czasie rzeczywistym w utrzymanie floty, zasoby i zgodność, ograniczyć przestoje oraz zwiększyć dostępność samolotów szkoleniowych RCAF w skali całego kraju. To ważny krok w modernizacji kanadyjskiego systemu szkolenia załóg lotniczych.
Wykorzystanie AI w firmach rośnie, ale wolniej, niż oczekiwano. Towarzyszy temu sporo rozczarowań
Wykorzystanie sztucznej inteligencji w firmach rośnie, ale tempo realnych wdrożeń pozostaje znacznie wolniejsze od wcześniejszych oczekiwań rynku. Dane pokazują, że z rozwiązań AI korzysta dziś wciąż niewiele przedsiębiorstw, a menedżerowie coraz częściej wskazują na bariery regulacyjne, koszty oraz brak powtarzalnych efektów biznesowych. W praktyce technologia jest testowana głównie w wybranych obszarach, a kluczowe decyzje nadal pozostają po stronie człowieka. Również w firmach, które wdrożyły AI, nierzadko towarzyszą temu rozczarowania.
Europejski przemysł cyfryzuje się zbyt wolno – ERP, chmura i AI stają się koniecznością
Europejski przemysł średniej wielkości wie, że cyfryzacja jest koniecznością, ale wciąż nie nadąża za tempem zmian. Ponad 60% firm ocenia swoje postępy w transformacji cyfrowej jako zbyt wolne, mimo rosnącej presji konkurencyjnej, regulacyjnej i kosztowej. Raport Forterro pokazuje wyraźną lukę między świadomością potrzeby inwestycji w chmurę, ERP i AI a realną zdolnością do ich wdrożenia – ograniczaną przez braki kompetencyjne, budżety i gotowość organizacyjną.
Najnowsze artykuły
5 pułapek zarządzania zmianą, które mogą wykoleić transformację cyfrową i wdrożenie ERP
Dlaczego jedne wdrożenia ERP dowożą korzyści, a inne kończą się frustracją, obejściami w Excelu i spadkiem zaufania do systemu? Najczęściej decyduje nie technologia, lecz to, jak organizacja prowadzi zmianę: czy liderzy biorą odpowiedzialność za decyzje czy tempo jest dopasowane do zdolności absorpcji oraz czy ludzie dostają klarowność ról i realne kompetencje. Do tego dochodzi pytanie: co po go-live - stabilizacja czy chaos w firmie? Poniżej znajdziesz 5 pułapek, które najczęściej wykolejają transformację i praktyczne sposoby, jak im zapobiec.
SAP vs Oracle vs Microsoft: jak naprawdę wygląda chmura i sztuczna inteligencja w ERP
Wybór systemu ERP w erze chmury i sztucznej inteligencji to decyzja, która determinuje sposób działania organizacji na lata — a często także jej zdolność do skalowania, adaptacji i realnej transformacji cyfrowej. SAP, Oracle i Microsoft oferują dziś rozwiązania, które na pierwszy rzut oka wyglądają podobnie, lecz w praktyce reprezentują zupełnie odmienne podejścia do chmury, AI i zarządzania zmianą. Ten artykuł pokazuje, gdzie kończą się deklaracje, a zaczynają realne konsekwencje biznesowe wyboru ERP.
Transformacja cyfrowa z perspektywy CFO: 5 rzeczy, które przesądzają o sukcesie (albo o kosztownej porażce)
Transformacja cyfrowa w finansach często zaczyna się od pytania o ERP, ale w praktyce rzadko sprowadza się wyłącznie do wyboru systemu. Dla CFO kluczowe jest nie tylko „czy robimy pełną wymianę ERP”, lecz także jak policzyć ryzyko operacyjne po uruchomieniu, ocenić wpływ modelu chmurowego na koszty OPEX oraz utrzymać audytowalność i kontrolę wewnętrzną w nowym modelu działania firmy.
Agentic AI rewolucjonizuje HR i doświadczenia pracowników
Agentic AI zmienia HR: zamiast odpowiadać na pytania, samodzielnie realizuje zadania, koordynuje procesy i podejmuje decyzje zgodnie z polityką firmy. To przełom porównywalny z transformacją CRM – teraz dotyczy doświadczenia pracownika. Zyskują HR managerowie, CIO i CEO: mniej operacji, więcej strategii. W artykule wyjaśniamy, jak ta technologia redefiniuje rolę HR i daje organizacjom przewagę, której nie da się łatwo nadrobić.
Composable ERP: Przewodnik po nowoczesnej architekturze biznesowej
Czy Twój system ERP nadąża za tempem zmian rynkowych, czy stał się cyfrową kotwicą hamującą rozwój? W dobie nieciągłości biznesowej tradycyjne monolity ustępują miejsca elastycznej architekturze Composable ERP. To rewolucyjne podejście pozwala budować środowisko IT z niezależnych modułów (PBC) niczym z klocków, zapewniając zwinność nieosiągalną dla systemów z przeszłości. W tym raporcie odkryjesz, jak uniknąć pułapki długu technologicznego, poznasz strategie liderów rynku (od SAP po MACH Alliance) i wyciągniesz lekcje z kosztownych błędów gigantów takich jak Ulta Beauty. To Twój strategiczny przewodnik po transformacji z cyfrowego "betonu" w adaptacyjną "plastelinę".
Oferty Pracy
-
Młodszy konsultant programista Microsoft Dynamics 365 Business Central
-
Konsultant programista Microsoft Dynamics 365 Business Central
-
Konsultant Microsoft Dynamics 365
-
Konsultant Wdrożeniowy Symfonia – księgowość
-
Microsoft Fabric Engineer (MFE)
-
Data/Business Analyst (PBI/Fabric)
-
CRM consultant
-
Starszy architekt systemów rozproszonych
-
Inżynier Zastosowań AI
Przeczytaj Również
Wykorzystanie AI w firmach rośnie, ale wolniej, niż oczekiwano. Towarzyszy temu sporo rozczarowań
Wykorzystanie sztucznej inteligencji w firmach rośnie, ale tempo realnych wdrożeń pozostaje znaczni… / Czytaj więcej
Vertiv Frontiers: 5 trendów, które przeprojektują centra danych pod „fabryki AI”
Centra danych wchodzą w erę „fabryk AI”, gdzie o przewadze nie decyduje już sama skala, lecz zdolno… / Czytaj więcej
Cyberbezpieczeństwo 2026. 6 trendów, które wymuszą nowe podejście do AI, danych i tożsamości
Rok 2026 zapowiada się jako moment przełomu w świecie cyfrowego bezpieczeństwa. W obliczu dynamiczn… / Czytaj więcej
Jurysdykcja danych w chmurze: dlaczego polskie firmy coraz częściej wybierają „gdzie leżą” ich system
Jurysdykcja danych przestała być detalem w umowach chmurowych – dziś decyduje o zgodności, bezpiecz… / Czytaj więcej
Tylko 7% firm w Europie wykorzystuje w pełni potencjał AI
72% firm w regionie EMEA uznaje rozwój narzędzi bazujących na sztucznej inteligencji za priorytet s… / Czytaj więcej
Chmura publiczna w Unii Europejskiej – między innowacją a odpowiedzialnością za dane
Transformacja cyfrowa w Europie coraz mocniej opiera się na chmurze publicznej, która stała się fun… / Czytaj więcej

